O conteúdo duplicado está penalizando seu site

Standard

A forma como a versão nova do algoritmo de classificação de páginas do Big G está penalizando a existência de conteúdo duplicado ainda está provocando dúvidas. Este fim de semana recebi três e-mails sobre o mesmo tema. Discuti isso, internamente com a equipe de SEO da VI Solutions, e resovi que esta é uma boa oportunidade para escrever sobre o que já sabemos sobre este novo algoritmo.

Para ter uma noção melhor do que está acontecendo, precisamos ter algumas coisas em mente. Lembre que o que nos interessa aqui é que nosso conteúdo apareça nos primeiros resultados da serp (página de resultado de busca). E gere muito tráfego e muitos negócios este é o segredo do web marketing.

Conteúdo repetido pode prejudicar seu site

Imagem de: Paloma Gómez

Desde que o Google é Google que ele se baseia na nossa forma de interligar as páginas web para ordenar o resultado da busca. Esta ideia genial tem alguns problemas. O maior deles é que se baseia na integridade humana. Se um grande número de autores criar links de forma artificial, com intuito meramente comercial a qualidade do resultado das buscas cai.  Graças a isso, o Big G, simplesmente não detalha os algoritmos, valores e processos envolvidos na classificação das páginas. Imagine que, sem saber exatamente como é existem tantas técnicas de black hat SEO que dão certo. Se soubéssemos exatamente o que fazer a qualidade dos resultados das buscas seria muito pior do que já é.

O que eles podem dizer, e repetem isso a exaustão, é que a intenção de modificar os algoritmos de classificação é garantir que os autores que não respeitam as regras de publicação, sejam penalizados no resultado das buscas. Ou, em poucas palavras, acabem na página 10. J

Uma das regras de publicação mais importantes é: “Don’t create multiple pages, subdomains, or domains with substantially duplicate content.” Ou, em bom português: Não crie páginas, domínios e subdomínios múltiplos com conteúdo substancialmente duplicado.

Você não pode repetir seu conteúdo entre páginas, domínios ou subdomínios. Esta repetição será penalizada pela versão Penguin do algoritmo de classificação. Como, exatamente, ninguém sabe mas centenas de sites indicaram perda de tráfego. Descartando as técnicas de seo negro ficamos com dois erros muito comuns.

No seu blog

Muitos sites são baseados nas plataformas criadas para blogar. Notadamente, no WordPress. Estas plataformas, para melhorar a interação com os usuários, criam arquivos de histórico e páginas de categorias. Que, em última análise, são apenas endereços diferentes para o mesmo conteúdo.

Você precisa remover estes endereços do Google, indicando ao robô de ele deve ignorar estes endereços. Use, por exemplo, o .htaccess para criar redirecionamentos do tipo 301 (permanente). Ou, se for o WordPress, você pode usar o Yoast WordPress Seo plugin que permite que você especifique exatamente quais áreas do seu site serão indexadas ou não.

Na sua empresa

Não contrate os serviços de copywriter genéricos. Seja específico e exija exclusividade. Um dos meus clientes contratou uma empresa de marketing para adicionar conteúdo no seu site. Esta empresa publicou uma centena de artigos na área de blog do site do cliente. Duas coisas aconteceram: Os artigos, apesar de bem escritos não possuem conteúdo capaz de gerar tráfico. Ninguém se deu ao trabalho de fazer uma análise de palavras chaves, keywords, sobre o tema. Logo, os artigos não geram tráfego. A segunda é mais grave. Estes artigos foram vendidos para dezenas de empresas e estão disponíveis em centenas de endereços web. Além de não gerar tráfego, está penalizando o site do cliente.

Neste caso, a única solução é retrabalhar estes textos para diferenciar o conteúdo, tentar atrair algum tráfego ou, no mínimo parar de ser penalizado. É isso ou tirar o conteúdo do ar.

No Geral

Para evitar este tipo de penalização:

  1. Mantenha uma estrutura de links consistente. Se termina um link com / termine todos assim.
  2. Você deve escolher, de uma vez por todas, se prefere ser indexado como www.depijama.com ou como depijama.com. Se vai usar o www ou não no endereço das páginas do seu site. O .htaccess é um lugar excelente para garantir que todas as páginas do seu site serão indexadas da forma correta.
  3. Use o Webmasters Tools para definir junto ao Google como você prefere ser indexado.
  4. Evite grandes quantidades de texto repetido em todas as páginas. Copyright é um exemplo clássico. Inclua, por exemplo, uma referência, ou texto curto, em todas as páginas e um link para a página onde está o conteúdo completo.
  5. Se seu site, empresa, visa um mercado multinacional , use o domínios de topo de cada país. Use .com para os EUA, .co para o Reino Unido e .com.br para o Brasil, por exemplo.
  6. Minimize o conteúdo similar. Por exemplo, se você têm um site com algum tipo de portfólio com páginas que contém essencialmente o mesmo texto. Tente mixar estas páginas em uma única ou diferencie o conteúdo incluindo informações únicas a cada página.
  7. Não esqueça as versões para impressão. Alguns webmasters usam uma estrutura diferente de endereço para a versão adequada a impressão.

As penalizações

Finalmente uma boa notícia. Ninguém sabe exatamente quais são as penalizações ou se elas realmente existem. O que temos certeza é que como o robô de classificação não tem como saber qual o conteúdo que você gostaria que fosse apresentado nos resultados de buscas e o Google evita ter conteúdos duplicados na serp. O conteúdo que será apresentado pode não ser interessante para você.

Veja o caso do copywriter basta que um único site tenha um pagerank maior que o do meu cliente para que nenhuma das páginas com conteúdo, tão cuidadosamente adquirido, apareça no serp

Então, mesmo que não exista uma penalização oficial, nem automática nem manual, o seu site acaba sendo deslocado para os confins da serp.

Melhores práticas de SEO

Sempre que exista algum conteúdo duplicado, este conteúdo deve ser canonizado. Do ponto de vista do SEO isto quer dizer que as urls devem ser padronizadas e devem ser uniformizadas. As melhores formas de fazer isso são o redirecionamento do tipo 301, as urls canõnicas e o uso dos parâmetros de configuração do Webmaster Tools.

Redirecionamentos 301

Se seu servidor está no Apache, com linux, tudo o que você precisa fazer é incluir uma linha no seu arquivo .htaccess:

redirect 301 /diretorio/antigo_arquivo.htm http://www.lugarnovo.com.br/novo_arquivo.htm

A vantagem do redirecionamento é que se várias páginas com potencial de ranqueamento apontam para uma única página elas transferem parte deste potencial para a página destino.

Urls Canônicas

Uma outra forma interessante e muito valorizada pelo pessoal do Google é o uso da tag  rel=canonical

Esta tag transfere a mesma quantidade de potencial de ranqueamento que o redirecionamento e, frequentemente, é mais simples de ser implementada. Inclua a tag na parte head do seu arquivo html:

<link href=”http://www.seusite.com/versao-canonica/ ” rel=”canonical” />

Isto indica ao Google que a página em que a tag está no head deve ser tratada como uma cópia da página http://www.seusite.com/versao-canonica/ e que todos os links, e métricas de conteúdo devem ser aplicadas a url fornecida.

Parâmetros de configuração do Webmasters Tools

Este é exclusivo do Google, o Webmasters Tools contém uma série de parâmetros de configuração que permitem que você indique diretamente aos algoritmos de busca, como eles devem tratar o seu site, suas páginas e arquivos. Como é exclusivo do Google, estas instruções serão ignoradas por outros sites de buscas, como o Bing, por exemplo.

Para entender isso tudo melhor

Se você sabe inglês, a seguir estão alguns vídeos de Matt Cutts onde ele discute os problemas que podem ser causados por conteúdo duplicado.

Para entender o efeito do nofollow no seu rank ou seo

Standard

A opção follow, ou nofollow está ganhado destaque entre as pessoas que estudam SEO, SEM e web marketing. Na minha última palestra, no WorldCamp Curitiba 2012, parece que a coisa não ficou muito clara. Este artigo retoma o tema, com mais detalhe.

como o nofollow pode afetar sua página

Imagem de: Jerry Reynolds

O atributo rel de um link pode receber o valor nofollow. Isto serve apenas para indicar aos robôs dos sites de busca que eles não devem seguir este link e, consequentemente, não indexar o site apontado através deste link.  Simples assim e só isso.

A quantidade de links que aponta para uma página web e que são apontados por esta página web ainda são importantes no cálculo da posição desta página nos resultados de busca.  A cada página possuí um valor próprio e quando uma página indica a outra, parte do valor da página indicadora é assimilado pela página indicada.

A ideia de colocar o atributo nofollow no link que, originalmente servia apenas para desencorajar os spammers, transformou-se, ao longo do tempo, em uma indicação importante para os robôs dos sites de busca. Não é difícil, basta incluir um rel=”nofollow”  dentro da tag link.

<a href=”http://www.depijama.com/” rel=”nofollow”>DePijama</a>

O Big G gostaria que os pobres autores e webmasters colocassem o nofollow em todos os links vendidos dos seus sites. A intenção é que cada autor, ou webmaster, use sua própria consciência para indicar que links devem ser seguidos pelos robôs. Uma forma de indicar a autoridade e qualidade de uma determinada página. Ou seja, se todos usarem o nofollow corretamente, os links que serão seguidos terão valor intrínseco melhorando a qualidade dos resultados apresentados para cada busca. E viva o Big G!

Como o uso do nofollow é explicito no Google Webmasters Guidelines e o uso inadequado de links pagos, e não marcados, pode implicar em uma penalização manual no ranking do seu site e, decesso contínuo nos resultados provocado pelo Penguin a maior parte dos editores, webmasters, autores e blogueiros em geral está marcando todos os links com o rel=”nofollow” preocupados que estão com o SEO dos seus sites depois do update Penguin. O que não pode ser bom.

Follow, nofollow o que isso causa no meu ranking?

  1. Muitos links com nofollow apontando para o seu site.

Explicitamente, no grupo webmasters central, o pessoal técnico do Google, declara que o número de links com rel=”nofollow” não afeta o pagerank de um site. Simplesmente porque os links com o nofollow são ignorados e não são computados. Faz todo sentido: Se o robô não segue o link, contar para quê.

  1. Muitos links com nofollow nas suas páginas apontando para fora.

Aqui, restam algumas dúvidas. Segundo se diz neste mesmo grupo e na internet em geral, esta situação não causará problema nenhum.

Preocupa-me este número dois.

O Google, desde sempre, de uma forma ou de outra, deu muito valor a sua opinião. Se todo mundo resolver que todos os links tenham nofollow, como o algoritmo irá determinar o valor de cada página? Será que isso preocupa?

Hoje, o percentual de links com rel=”nofollow” é ridículo. Tenho 1000000 de páginas em um banco de dados para avaliações e testes, atualizado nos últimos 10 dias e, nestas páginas não encontro nem 200 links com nofollow. Não são blogs, nem páginas de conteúdo acadêmico mas, dá uma ideia da proporção, já que o Google não divulga estas coisas. De uma forma ou de outra, se a proporção crescer eles terão que adequar os algoritmos de rank para corrigir este problema.

A atitude mais sensata é não colocar o nofollow em todos os links. Simples assim.

Use o seu bom senso e critério. Por exemplo, um link que aponte para a página de um produto, da Wikipédia, de um blog com conteúdo valioso, deve ser valorizado, não use o nofollow e deixe que os robôs saibam que você confia neste conteúdo. Em algum momento esta atitude consciente vai ser valorizada pelos algoritmos de busca e rank.

Se você usa o WordPress, como o pessoal da VI Solutions, dispõe de vários plug-ins para esta função. Um em especial merece sua atenção NoFollow Link. Trata-se de um plug-in que inclui um botão extra no editor que permite, quando um link é clicado, que o atributo rel=”nofollow” seja incluído automaticamente no dito link. Você pode fazer o download do NoFollow Link ou usar a tela de adicionar novo plug-in do seu blog.

Talvez, mais importante que o nofollow seja os problemas causados pelo conteúdo repetido mas, este fica para uma outra oportunidade.

Os 7 passos para trabalhar efetivamente online com Webmarketing

Standard

Trabalhar na internet deve ser uma das atividades profissionais mais difíceis de hoje em dia. A internet é um bicho enorme de 7 cabeças que come tempo. Basta uma pequena distração e lá se vão duas ou três horas sem que você perceba. Para ter sucesso no web marketing primeiro, você precisa matar este bicho. Infelizmente, nenhum de nós é o Hércules mitológico que matou o bicho cortando todas as cabeças com um golpe só. Aqui na realidade chata e maçante não existe esta solução mágica.

Trabalhar efetivamente na internet para ter sucesso no WebMarketing

Imagem de: The Consortium

Não é possível ter sucesso na internet sem web marketing e não é possível fazer web marketing sem trabalhar online. Então, para ter sucesso no web marketing, e vender mais, é preciso trabalhar efetivamente na internet. Parece complicado? Fique tranquilo é complicado mesmo.

Por outro lado, algumas pessoas conseguem trabalhar online efetivamente sem desperdiçar tempo e, de vez enquanto, algumas delas conseguem até vender online. Conversei com várias destas pessoas ao longo dos últimos meses, informalmente, para descobrir como elas conseguem trabalhar efetivamente e ainda ter sucesso fazendo web marketing e dividi o conhecimento adquirido em três artigos. O primeiro, este que você está lendo, contém os 7 primeiros passos para trabalhar efetivamente online

  1. Aprenda a gerenciar seu tempo. Divida o seu dia em tarefas com horário para começar e para terminar. Os horários são fundamentais para o sucesso. Comece na hora marcada e termine na hora marcada mesmo que a tarefa não tenha sido concluída. Faça isso durante uma semana e reavalie seus tempos. Pode ser que a primeira divisão tenha sido muito otimista.  Uma forma inteligente de fazer isso é usar as tecnologias de gestão de projeto para organizar as tarefas do dia. O Asana é o que há de melhor nesta área, não só para gestão de tarefas em grupos mas para você também.
  2. Certifique-se que você é o dono do seu site, conteúdo e dados. Não é raro encontrar empresas na internet que estão desprezando seus maiores ativos. O maior ativo de um site é seu domínio. Invista em um domínio próprio, se é que ainda não tem um. Certifique-se que, a qualquer momento você possa trocar de hospedagem sem perder o domínio, sem perder seus dados e sem perder o design e as funcionalidades do seu site. Em geral, basta manter uma rotina de backup particular e ativa. Não confie no seu provedor para o backup!
  3. Poupe tempo gerenciando suas senhas. Assine um serviço como o Keepass ou 1password e o use o Dropbox. O Dropbox permite que você mantenha seus arquivos sincronizados em várias máquinas em todas as plataformas que consigo pensar e os gerenciadores de senhas, permitirão que você use senhas realmente seguras em todos os sites que frequenta sem que tenha que ficar memorizando senhas. Euzinho uso o 1Password, custou US$59,00 mas valeu a pena. Integrado ao Dropbox, tenho todas a senhas em um lugar seguro e só preciso memorizar uma.
  4. Analise seu analytics. O Google analytics, além de gratuito é uma das mais poderosas ferramentas de avaliação de tráfego disponíveis. Mas, não basta abrir o analytics e ficar olhado para ele. Estabeleça metas e configure o Dashboard para exibir o resultado destas metas. Estabeleça valores e acompanhe estes gráficos.  Certifique-se, principalmente, que o analytics seja seu. Você controle a conta. Se preciso for, crie uma conta no Google só para isso. Um dos meus melhores clientes teve que começar as análises estatísticas todas do zero só porque trocou de agência de web marketing e o histórico da sua empresa ficou com a agência anterior.
  5. Acompanhe o número serp das suas páginas. Não adianta digitar suas palavras chaves no Google e procurar sua página. Cada pesquisa é diferente e os novos algoritmos do Google farão com que sua página esteja melhor colocada para você. Eles levam em consideração, desde o que as pessoas que usam o computador procuram, até onde elas estão no mundo. Então você precisará de um serviço independente para isso. Use, por exemplo o WhatPageOfSearcheIAmOn, o nome é horrível mas o serviço é ótimo. Na opção avançada você pode escolher o google.com.br, por exemplo, e ver os resultados sem influência dos cookies nos seus computadores.
  6. Não espere ou acredite em milagres. Se, qualquer um, lhe prometer sucesso imediato em curto prazo e baixo custo, ignore! Isto é impossível. Web marketing é demorado, trabalhoso e caro. Não existe solução simples, não existe solução ótima e não existe solução barata. Demanda tempo, atenção e dinheiro. Muito mais tempo e atenção que o marketing tradicional e, geralmente, o mesmo investimento. Não basta colocar o site no ar, ele precisa ser acompanhado, testado, modificado, reescrito, testado e repensado constantemente. E, acompanhe pessoalmente. Uma das vantagens do analytics é que cada perfil pode ter vários usuários. Exija ser um dos usuários e acompanhe os resultados.
  7. E, principalmente, apenda a usar o Excel. O Excel é, por excelência, a melhor ferramenta disponível para avaliar dados. Sejam eles de que origem e formato. Aprenda principalmente tabelas dinâmicas e vlookup. Você não imagina o que pode fazer com estas coisas.

A Descoberta do Boson de Higgs pode ser anunciada nos próximos dias

Standard

Há pouco menos de 100 anos começamos a definir um modelo de como o Universo funciona, a partir das forças básicas e das partículas elementares. Este gigantesco esforço de pesquisa e imaginação parece estar chegando ao seu ápice. A comunidade científica está, há semanas, especulando que no próximo dia 4 de julho os cientistas do Large Hadron Collider anunciarão a observação inequívoca do Boson de Higgs.

a descoberta do boson de higgs e o modelo padrão

Este modelo de funcionamento do Universo, conhecido como modelo padrão, começou a ser desenvolvido no começo do século XX por Rutherford, Einstei, Cury, Dirac, Bohr e tantos outros que fica difícil contar e, ao longo das décadas, foi sendo aprimorado, corrigido e comprovado por dezenas de milhares de experiências e observações. Falta o Boson de Higgs. Previsto pela primeira vez na década de 60 do século XX esta partícula hipotética, se comprovada, explicaria por que e como as outas partículas possuem massa.

Existem duas classes de partículas elementares os bosons e os férmions. Os primeiros caracterizados por obedecerem as leis estatísticas de Bose-Einstein e de serem capazes de serem capazes de ocupar o mesmo lugar no espaço desde que estejam no mesmo nível energético, incluem os fótons e glúos além, é claro, do famoso Boson de Higgs objeto deste artigo.

Nove autores de três diferentes artigos, todos durante a década de 60, explicaram como bosons poderiam, espontaneamente, adquirir massa. São eles: Philip Warren Anderson, François Englert,  Robert BroutPeter HiggsGerald GuralnikC. R. Hagen,  Tom Kibble.  Steven Weinberg e Abdus Salam. Higgs levou a honra de nomear a partícula por ter liderados a criação da teoria que explica o surgimento da massa a partir da energia de duas outras partículas. Este boson que caçamos tão ávidamente explica como o Universo, em um dado momento, foi capaz de criar a massa que percebemos hoje dando origem tanto a matéria quanto a antimatéria. Nada de mais só …. tudo.

Uma vez descoberto, o boson de Higgs selará o modelo padrão e, até onde sabemos hoje, nada mais será necessário para explicar o Universo. Os físicos ficarão exultantes.

Na virada do século XX um professor de uma grande universidade da Alemanha soube que seu mais brilhante aluno resolvera estudar física. Sem hesitar, mandou chamar o aluno e, em um sermão de 20 minutos explicou por que este não deveria desperdiçar seu talento em uma ciência morta como a física. Disse o ilustre professor: Na física, nada mais há para ser descoberto. Tudo se sabe e entende. O aluno brilhante como poucos mas teimoso como uma mula insistiu e acabou por descobrir que o átomo na verdade era formado de partículas menores. Não fosse a teimosia de Rutherford não teríamos hoje a televisão, o microondas e o computador, para citar algumas “modernidades” possíveis graças ao conhecimento do funcionamento da matéria.

Uma vez descoberto, o boson de Higgs selará o modelo padrão e, até onde sabemos hoje, nada mais será necessário para explicar o Universo. Os físicos ficarão exultantes.

Até onde sabemos hoje!