SEO: 2 boas maneiras de remover conteúdo duplicado e 8 ruins

Conteúdo duplicado é várias páginas contendo o mesmo texto ou texto muito semelhante. As duplicatas existem em duas formas:

  • Interno: Quando o mesmo domínio hospeda o conteúdo exato ou similar.
  • Externo: Quando você distribui conteúdo de outros sites (ou permite a distribuição do seu conteúdo).

Ambos os casos autoridade de link dividido e, assim, diminuir a capacidade de classificação de uma página nos resultados de pesquisa orgânica.

Digamos que um site tenha duas páginas idênticas, cada uma com 10 links externos de entrada. Esse site poderia ter aproveitado a força de 20 links para aumentar o ranking de uma única página. Em vez disso, o site tem duas páginas com 10 links. Nenhum deles seria classificado como altamente.

Conteúdo duplicado também desperdiça o rastrear orçamento e força o Google a escolher uma página para ranquear – raramente é uma boa ideia.

Enquanto o Google estados que não há penalidade de conteúdo duplicado, livrar-se desse conteúdo é uma boa maneira de consolidar seu patrimônio de links e melhorar seus rankings.

Aqui estão duas boas maneiras de remover conteúdo duplicado de índices de busca — e oito para evitar.

2 maneiras de remover

Para corrigir o conteúdo duplicado indexado, consolide a autoridade do link em uma única página e solicite aos mecanismos de pesquisa que removam a versão duplicada de seu índice. Existem duas boas maneiras de fazer isso.

  • Os redirecionamentos 301 são A melhor opção. Eles consolidam a autoridade do link, desindexação imediata e redirecionam os usuários para a nova página. Google declarou que ele atribui toda a autoridade de link para a nova página com um redirecionamento 301.
  • As tags canônicas direcionam os mecanismos de pesquisa para a página principal, solicitando que eles transfiram o valor do link para ela. As tags funcionam como sugestões para os mecanismos de pesquisa – não comandos como redirecionamentos 301 – e não redirecionam os usuários para a página principal. Os mecanismos de pesquisa normalmente respeitam as tags canônicas para conteúdo realmente duplicado (ou seja, quando a página canônica tem muitas semelhanças com a página principal). As tags canônicas são a melhor opção para conteúdo duplicado externo, como republicar um artigo do seu site em uma plataforma como o Medium.

8 Métodos desaconselháveis

Algumas opções que tentam remover conteúdo duplicado dos índices do mecanismo de pesquisa não são aconselháveis ​​na minha experiência.

  • Os redirecionamentos 302 sinalizam um movimento temporário em vez de permanente. Embora o Google tenha declarado que trata os redirecionamentos 302 da mesma forma que os 301s, o último é a melhor maneira de redirecionar permanentemente uma página.
  • Os redirecionamentos JavaScript são válidos de acordo com o Google — após vários dias ou semanas para o processo de renderização completar. Mas há poucas razões para usar redirecionamentos JavaScript, a menos que você não tenha acesso ao servidor para 301s.
  • As atualizações meta (executadas por navegadores da Web do lado do cliente) são visíveis para os usuários como um breve sinal na tela antes que o navegador carregue uma nova página. Seus visitantes e o Google podem ficar confusos com esses redirecionamentos e não há motivo para preferi-los aos 301s.
  • Os códigos de erro 404 revelam que o arquivo solicitado não está no servidor, solicitando que os mecanismos de pesquisa desindexem essa página. Mas os 404s também removem a autoridade de link associada à página. Não há motivo para usar 404s, a menos que você queira apagar os sinais de link de baixa qualidade que apontam para uma página.
  • Erros soft 404 ocorrem quando o servidor 302 redireciona uma URL incorreta para o que parece ser uma página de erro, que retorna uma resposta de cabeçalho do servidor 200 OK. Erros soft 404 são confusos para o Google, então é melhor evitá-los.
  • Ferramentas de busca. Google e Bing fornecer ferramentas para remover um URL. No entanto, como ambos exigem que a URL enviada retorne um erro 404 válido, as ferramentas são uma etapa de backup após a remoção da página do servidor.
  • Meta robots noindex tags dizem aos bots para não indexar a página. A autoridade do link morre com a incapacidade dos mecanismos de indexar a página. Além disso, os mecanismos de pesquisa devem continuar a rastrear uma página para verificar o atributo noindex, desperdiçando o orçamento de rastreamento.
  • Robots.txt não permite a desindexação. Os bots de mecanismos de pesquisa não rastreiam mais páginas não permitidas que foram indexadas, mas as páginas podem permanecer indexadas, especialmente se os links estiverem apontando para elas.

Evitando conteúdo duplicado

Em seu oficial documentaçãoo Google recomenda evitar conteúdo duplicado:

  • Minimizando a repetição do clichê. Por exemplo, em vez de repetir os mesmos termos de serviço em cada página, publique-o em uma página separada e vincule-o a todo o site.
  • Não usar espaços reservados que tentam tornar as páginas geradas automaticamente mais exclusivas. Em vez disso, gaste o esforço para criar conteúdo único em cada página.
  • Compreender sua plataforma de comércio eletrônico para evitar que ela crie conteúdo duplicado ou quase duplicado. Por exemplo, algumas plataformas minimizam snippets de página de produto em páginas de categoria, tornando cada página única.

Source link

Amazon Coaching Grátis

Venda 25K Dólares com apenas um Produto no Amazon.

Artigos Relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

cinco + 9 =

- Ana Pereira -spot_img

Últimos Artigos