O SEO sempre foi um negócio complicado, os especialistas não precisam apenas gastar tempo pesquisando palavras-chave e seguindo as melhores práticas, eles têm que estar preparados para as mudanças que os mecanismos de busca inevitavelmente colocam em prática.

No ano passado, o gigante de buscas Google fez duas grandes atualizações de algoritmo - Panda e Penguin - que viram muitos sites caírem no ranking, já que foram penalizados pelas novas regras.

Isso ocorreu porque as mudanças foram implementadas para classificar sites de baixa qualidade, como fábricas de conteúdo e farms de links, para baixo e dar mais peso a sites que produzem conteúdo de qualidade.

Isso é feito com alterações na forma como os spiders do Google reconhecem um site, oferecendo classificações melhores a sites com conteúdo bem escrito e engajamento de mídia social. Para os profissionais da Web, isso criou um certo pânico, pois os sites estáticos que não estavam bem escritos e cheios de palavras-chave começaram a falhar.

As atualizações da Penguin e da Panda dependiam de um novo conjunto de regras e algoritmos mais complexos, projetados para classificar um site em vários fatores diferentes.

Esses incluem:

  • Conteúdo: os spiders do Google agora podem saber se um site está mal escrito, com erros ortográficos e gramaticais, muitos anúncios e links de baixa qualidade. Essa mudança é bem-vinda para muitos profissionais de SEO e profissionais digitais, já que imediatamente derrubou sindicatos de artigos de baixa qualidade e fábricas de conteúdo, de modo que a alta qualidade poderia tomar seu lugar e ser mais útil para os pesquisadores.
  • Frescura: o "frescor" da cópia tornou-se mais importante para o Google do que os links de entrada. Isso significa que, para concorrer no Google, é necessário adicionar novos conteúdos com frequência. O ranking de atualização analisa três áreas principais: # 1: Trending topics, como as Olimpíadas ou a eleição nos EUA # 2: eventos famosos recorrentes, como o Superbowl # 3: como recentemente o conteúdo foi adicionado.
  • Conteúdo exclusivo: já copiou e colou algum conteúdo em um site para cortar custos? Agora também cortará a classificação do site. O conteúdo original é um dos aspectos mais importantes da determinação da posição. Conteúdo contendo links não naturais também será penalizado, por isso é importante garantir que os links apareçam organicamente e sejam muito relevantes para o conteúdo. Isso só vai se tornar ainda mais importante Classificação do autor do Google decola.
  • Social: como muitos de vocês saberão, social é o novo marketing e é uma ferramenta muito poderosa para SEO. O Google agora usa social nos resultados de pesquisa para determinar o quão útil é um site. É importante agora que os profissionais de marketing on-line e especialistas em SEO incluam o social, garantindo que todas as cores e logotipos da marca sejam uniformes nos canais e sites sociais. Além disso, é importante que a presença social seja bem gerenciada; mal, o social gerenciado por bot prejudicará as classificações do site.
  • Livre de erros técnicos: isso é particularmente importante para os profissionais da web e, sem dúvida, derrubará muitos sites de blogs. Um site que tenha uma arquitetura de som terá um desempenho melhor do que um site criado em modelos, Flash ou com mais de dois anos. Isso significa que o código deve ser baseado em padrões com tags CSS válidas e metadados organizados.

Como resolver problemas com a classificação de um site

Mesmo alguns dos maiores sites foram afetados pelas mudanças nos algoritmos do Google, eu li de um que teve que ser retirado de volta para alterar todas as palavras-chave e duplicar as páginas.

Um site que é mal escrito deve ter todo o seu conteúdo atualizado, de preferência por alguém que possa escrever. Isso inclui postagens de blogs e artigos, portanto, se um site tiver muito conteúdo como esse, talvez seja melhor tirar tudo do site e adicioná-lo ao conteúdo, ou conteúdo diferente, por escrito.

Os meta-dados também precisam ser limpos e organizados, e o Google tende a ignorar as palavras-chave e concentrar-se nas descrições aqui. As palavras-chave, claro, ainda têm seu lugar e é importante garantir que elas ainda sejam bem pesquisadas e analisadas, mas artigos e blogs com alta densidade de palavras-chave provavelmente serão penalizados. Isso ocorre porque as palavras-chave, quando usadas em excesso, tendem a comprometer a qualidade da escrita.

Panda concentrou-se em livrar-se daqueles sites que tentaram "enganar" seus algoritmos com o uso excessivo de palavras-chave e links de spam. Se você determinou que um site tem links de spam apontando para ele, use Ferramenta de rejeição do Google , que irá removê-los para você. No entanto, é importante neste momento observar que uma auditoria cuidadosa do local deve ser realizada para identificar links inválidos e deve ser com cautela que a ferramenta é usada.

Para o Panda, vale também verificar se o conteúdo de um site é único; tem de ser 60% único em todo o site, bem como acessível, para poder aprovar as regras da Panda.

O Penguin se concentrou mais no conteúdo real e ambos os algoritmos ainda são atualizados regularmente para refiná-los. Na maior parte, o Penguin concentra-se principalmente no preenchimento de palavras-chave em artigos e links de spam.

Essencialmente, ambos estão preocupados com a acessibilidade, conteúdo, técnicas de spam e novas regras que são projetadas para evitar o black hat SEO.

O que é o black hat SEO?

Basicamente, essa é uma maneira de tentar manipular os mecanismos de busca de modo que eles essencialmente os "enganem" para pensar que um site é valioso. O chapéu preto usa táticas agressivas e é voltado para o mecanismo de busca, em vez de um público humano.

Sobre os próximos artigos, vou dar uma olhada em técnicas de chapéu preto, branco e cinza, a fim de dar uma visão clara do que pode ser usado com segurança e que são um não-não. O problema que muitos têm encontrado é que alguns "especialistas" de SEO, menos do que respeitáveis, têm empregado técnicas de black hat para ganhar mais clientes e ganhar dinheiro rapidamente. É por isso que alguns sites de negócios caíram como uma pedra no ranking, muitas vezes sem saber que fizeram algo errado.

Técnicas de chapéu preto incluem:

  • código de embalagem com texto 'oculto' ;
  • link farms onde um grupo de sites todos se ligam para spam o índice de um mecanismo de busca;
  • blog spam, usando o campo de comentários em blogs e fóruns para colocar links para outros sites;
  • raspagem, uma prática em que um site recebe conteúdo de outro para parecer mais valioso para os mecanismos de pesquisa;
  • páginas de entrada usadas com a intenção de atrair pesquisadores com frases não relacionadas ao conteúdo do site;
  • hospedagem parasita , onde um site é hospedado no servidor de outra pessoa sem permissão;
  • cloaking, uma técnica na qual o spider do mecanismo de busca vê conteúdo diferente para o usuário final que visualiza por meio de um navegador.

Os métodos black hat são vistos por muitos profissionais da Web como antiéticos, pois usam táticas que prometem retornos rápidos, mas têm a chance de prejudicar a reputação da empresa, o website e, por sua vez, os lucros.

A utilização de métodos black hat muitas vezes significa que um site não precisa esperar meses pelo link backs, como você faria com os tradicionais métodos white hat. No entanto, ele também preenche a internet com informações inúteis e spam, e ao longo dos anos afetou seriamente a pesquisa.

Também é mais barato para o estrategista de SEO realizar com tanta frequência que uma rede de blogs já estará configurada para se vincular e não dependerá muito de análises e conteúdo, como a prática do white hat.

Não apenas o emprego de métodos de black hat muitas vezes leva à ameaça de ação legal, se eles são usados ​​juntamente com uma campanha de PPC, penalidades pesadas podem ser incorridas do anunciante.

Não é recomendado que um site use técnicas de black hat devido às penalidades envolvidas, em termos de ação legal, reputação e ameaça de não classificação. No entanto, sem dúvida, isso não impedirá todos, apesar das atualizações do Google.

Dizendo isso, já estamos vendo as fábricas de conteúdo caindo rapidamente no ranking, então as atualizações estão obviamente funcionando, já que essa é uma das principais áreas que o Google queria abordar.

O Google e todos os principais mecanismos de pesquisa têm uma visão, que pretende limpar a web e acabar com práticas ruins, levando a um conteúdo mais útil aparecendo no topo da pesquisa para todos nós. Se você usa técnicas de black hat ou não, é entre você e sua consciência, mas certamente eu, pelo menos, estou feliz com a capacidade de pesquisar e não criar uma página cheia de lixo antes de chegar ao que eu quero.

Que problemas você teve como resultado do Panda e do Penguin? Como você resolveu técnicas de chapéu negro empregadas por antecessores? Deixe-nos saber nos comentários.

Imagem em destaque / miniatura, imagem de pesquisa via Shutterstock.