O SEO sempre foi um negócio complicado, os especialistas não precisam apenas gastar tempo pesquisando palavras-chave e seguindo as melhores práticas, eles têm que estar preparados para as mudanças que os mecanismos de busca inevitavelmente colocam em prática.
No ano passado, o gigante de buscas Google fez duas grandes atualizações de algoritmo - Panda e Penguin - que viram muitos sites caírem no ranking, já que foram penalizados pelas novas regras.
Isso ocorreu porque as mudanças foram implementadas para classificar sites de baixa qualidade, como fábricas de conteúdo e farms de links, para baixo e dar mais peso a sites que produzem conteúdo de qualidade.
Isso é feito com alterações na forma como os spiders do Google reconhecem um site, oferecendo classificações melhores a sites com conteúdo bem escrito e engajamento de mídia social. Para os profissionais da Web, isso criou um certo pânico, pois os sites estáticos que não estavam bem escritos e cheios de palavras-chave começaram a falhar.
As atualizações da Penguin e da Panda dependiam de um novo conjunto de regras e algoritmos mais complexos, projetados para classificar um site em vários fatores diferentes.
Esses incluem:
Mesmo alguns dos maiores sites foram afetados pelas mudanças nos algoritmos do Google, eu li de um que teve que ser retirado de volta para alterar todas as palavras-chave e duplicar as páginas.
Um site que é mal escrito deve ter todo o seu conteúdo atualizado, de preferência por alguém que possa escrever. Isso inclui postagens de blogs e artigos, portanto, se um site tiver muito conteúdo como esse, talvez seja melhor tirar tudo do site e adicioná-lo ao conteúdo, ou conteúdo diferente, por escrito.
Os meta-dados também precisam ser limpos e organizados, e o Google tende a ignorar as palavras-chave e concentrar-se nas descrições aqui. As palavras-chave, claro, ainda têm seu lugar e é importante garantir que elas ainda sejam bem pesquisadas e analisadas, mas artigos e blogs com alta densidade de palavras-chave provavelmente serão penalizados. Isso ocorre porque as palavras-chave, quando usadas em excesso, tendem a comprometer a qualidade da escrita.
Panda concentrou-se em livrar-se daqueles sites que tentaram "enganar" seus algoritmos com o uso excessivo de palavras-chave e links de spam. Se você determinou que um site tem links de spam apontando para ele, use Ferramenta de rejeição do Google , que irá removê-los para você. No entanto, é importante neste momento observar que uma auditoria cuidadosa do local deve ser realizada para identificar links inválidos e deve ser com cautela que a ferramenta é usada.
Para o Panda, vale também verificar se o conteúdo de um site é único; tem de ser 60% único em todo o site, bem como acessível, para poder aprovar as regras da Panda.
O Penguin se concentrou mais no conteúdo real e ambos os algoritmos ainda são atualizados regularmente para refiná-los. Na maior parte, o Penguin concentra-se principalmente no preenchimento de palavras-chave em artigos e links de spam.
Essencialmente, ambos estão preocupados com a acessibilidade, conteúdo, técnicas de spam e novas regras que são projetadas para evitar o black hat SEO.
Basicamente, essa é uma maneira de tentar manipular os mecanismos de busca de modo que eles essencialmente os "enganem" para pensar que um site é valioso. O chapéu preto usa táticas agressivas e é voltado para o mecanismo de busca, em vez de um público humano.
Sobre os próximos artigos, vou dar uma olhada em técnicas de chapéu preto, branco e cinza, a fim de dar uma visão clara do que pode ser usado com segurança e que são um não-não. O problema que muitos têm encontrado é que alguns "especialistas" de SEO, menos do que respeitáveis, têm empregado técnicas de black hat para ganhar mais clientes e ganhar dinheiro rapidamente. É por isso que alguns sites de negócios caíram como uma pedra no ranking, muitas vezes sem saber que fizeram algo errado.
Técnicas de chapéu preto incluem:
Os métodos black hat são vistos por muitos profissionais da Web como antiéticos, pois usam táticas que prometem retornos rápidos, mas têm a chance de prejudicar a reputação da empresa, o website e, por sua vez, os lucros.
A utilização de métodos black hat muitas vezes significa que um site não precisa esperar meses pelo link backs, como você faria com os tradicionais métodos white hat. No entanto, ele também preenche a internet com informações inúteis e spam, e ao longo dos anos afetou seriamente a pesquisa.
Também é mais barato para o estrategista de SEO realizar com tanta frequência que uma rede de blogs já estará configurada para se vincular e não dependerá muito de análises e conteúdo, como a prática do white hat.
Não apenas o emprego de métodos de black hat muitas vezes leva à ameaça de ação legal, se eles são usados juntamente com uma campanha de PPC, penalidades pesadas podem ser incorridas do anunciante.
Não é recomendado que um site use técnicas de black hat devido às penalidades envolvidas, em termos de ação legal, reputação e ameaça de não classificação. No entanto, sem dúvida, isso não impedirá todos, apesar das atualizações do Google.
Dizendo isso, já estamos vendo as fábricas de conteúdo caindo rapidamente no ranking, então as atualizações estão obviamente funcionando, já que essa é uma das principais áreas que o Google queria abordar.
O Google e todos os principais mecanismos de pesquisa têm uma visão, que pretende limpar a web e acabar com práticas ruins, levando a um conteúdo mais útil aparecendo no topo da pesquisa para todos nós. Se você usa técnicas de black hat ou não, é entre você e sua consciência, mas certamente eu, pelo menos, estou feliz com a capacidade de pesquisar e não criar uma página cheia de lixo antes de chegar ao que eu quero.
Que problemas você teve como resultado do Panda e do Penguin? Como você resolveu técnicas de chapéu negro empregadas por antecessores? Deixe-nos saber nos comentários.
Imagem em destaque / miniatura, imagem de pesquisa via Shutterstock.