Neste post você entenderá como duplicar conteúdos sem prejudicar-se com o Google nas buscas, e deixar o seu blog seguro e sem brigas onlines entre blogs concorrentes atráves de denuncias, vencer o plágio é um dever e evitar é uma obrigação, então comece a modificar o seu jeito de Blogueiro.
Plágio Positivo
Eu sei que você vive pesquisando por ai na net muitos assuntos novos sobre o conteúdo de seu blog, ai derrepente ver um coisas que traria verdadeiros leitores para seu blog.
Errado é você pegar o texto daquele Blog ou Site e dizer que foi você que digitou, tome cuidado tem sistema de denuncia que pode excluir postagens plagiadas ou até mesmo excluir o seu blog ou pior sair da lista de buscas na internet por meio dos buscadores, tome muito cuidado, quando ver algo interessante, pegue o trecho e coloque em seu blog com a fonte isso realmente irá te salvar de grandes confusões e ajudará os dois Blogs.
Duplicação Correta
Texto retirado do site Brasil SEO, link do site no final da Citação
Dicas para lidar com conteúdo duplicado no seu site:
- Reconhecer o que é conteúdo duplicado:
- Determinar a URL preferida:
- Ser coerente dentro do seu próprio site:
- Use redirecionamento 301 permanente, sempre que necessário e possível:
- Aplicar o atributo rel = “canonical”:
- Use a ferramenta de manipulação de parâmetros no Google WebmasterTools:
- E sobre robots.txt?
Reconhecer o conteúdo duplicado no seu site é o mais importante. Uma maneira fácil de fazer isso é ter um trecho do texto de uma de suas páginas e realizar uma pesquisa, limitando os resultados para páginas dentro de seu próprio website usando o operador “site:”. Se você receber vários resultados para o mesmo conteúdo, você pode começar a analisar estas páginas.
Antes de resolver qualquer problema de conteúdo duplicado, você deve determinar a sua URL preferida e responder a pergunta: Qual URL você prefere usar para esse conteúdo?
Uma vez que você escolheu a sua URL preferida, certifique-se de usá-la em todos os lugares possíveis dentro do seu website (incluindo o Sitemap).
Redirecionar URLs duplicadas para a URL preferida usando um código de resposta 301 pode ajudar e muito os usuários e ferramentas de busca localizar a URL de escolha no caso de visitarem as URLs duplicadas. Se seu site tem vários domínios, faça a escolha de um e utilize o redirecionamento 301 nos outros, garantindo que os usuários são levados para a página desejada, não apenas para a página principal. Se você tem nomes de host com e sem “www”, escolha um e use a ferramenta do WebmasterTools para redirecionar corretamente.
Quando não é possível fazer um redirecionamento 301, o atributo rel = “canonical” pode ajudar as ferramentas de busca compreenderem melhor o seu site e suas URLs favoritas. Usando este elemento de ligação você padroniza as pesquisas em seu site para outros motores de busca além do Google, como o Ask.com, Yahoo! e Bing.
Se todo ou parte do conteúdo duplicado no seu site vem de parâmetros de consulta de URL, essa o Google WebmasterTools pode ajudar a avisar quais parâmetros são importantes e quais deles são irrelevantes para o sua URL. Digamos que você tenha um site de produtos de beleza e um dos itens principais seja um creme. A página do produto pode ser acessada por meio de diferentes URLs, especialmente se você usar IDs de sessão ou outros parâmetros:
example.com.br/produtos/mulheres/creme/morango.htm
example.com.br/produtos/mulheres/creme?cor=vermelha&cruel=não
example.com.br/loja/indice.php?product_id=32&highlight=morango+creme&cat_id=1&sessionid=123&affid=431
example.com.br/creme/coquetel?gclid=X20382
example.com.br/produtos/mulheres/creme?cor=vermelha&cruel=não
example.com.br/loja/indice.php?product_id=32&highlight=morango+creme&cat_id=1&sessionid=123&affid=431
example.com.br/creme/coquetel?gclid=X20382
Se as ferramentas de busca souberem que essas páginas tem o mesmo conteúdo, podem indexar somente uma versão para os resultados de pesquisa. No entanto, com a ferramenta do Google estas podem ser ignoradas para reduzir o conteúdo duplicado e tornar o seu site mais rastreável.
Então, por exemplo se você especificar que o parâmetro sessionid deve ser ignorado, o Google considerará example.com.br/creme/morango.htm?sessionid=273749 como o mesmo que example.com.br/creme/morango.htm.
Não recomendamos bloquear o acesso a conteúdo duplicado no seu site com robots.txt ou com outros métodos. Ao bloquear os robôs ao invés de usar o atributo rel = “canonical”, ferramentas de manipulação de parâmetros ou redirecionamentos 301, os motores de buscas podem tratar essas URLs em separado, como páginas simples, e eles não vão saber que são URLs diferentes para o mesmo conteúdo. É melhor que sejam rastreadas, mas que sejam tratadas como duplicadas, utilizando um dos métodos recomendados aqui. Se você permitir que essas URLs sejam rastreadas, o robô vai aprender as regras para a identificação de conteúdo duplicado somente com olhar a URL e evitar novas varreduras desnecessárias.
Quando o conteúdo duplicado faz rastrear muito o seu site, você pode ajustar a taxa de rastreamento no Google Webmaster Tools com o objetivo de rastrear o maior número possível de páginas em seu site a cada visita, sem sobrecarregar a largura de banda do seu servidor.
Fonte: http://www.brasilseo.com.br/
ADM: Gostou? Comente ou siga nosso Blog.
0 comentários:
Postar um comentário
Seu Comentário estará enriquecendo o conteúdo acima. Fico grato com sua participação! Qualquer dúvida relacionada a outro assunto use o nosso formulário de contato "Fale Conosco". Obrigado
Por favor me adicione no Google + para eu poder te responder de imediato!