[Algoritmos & Robôs: Os novos públicos-alvo das marcas] SEO e robôs determinando o que se vê

Em linhas gerais, há quatro maneiras de um usuário chegar a um determinado conteúdo online:

  1. Acessando diretamente o endereço do conteúdo em seu navegador
  2. Se deparando com uma recomendação do conteúdo via redes sociais
  3. Se deparando com uma recomendação do conteúdo em outros sites
  4. Pesquisando um determinado assunto em um buscador

Não nos enganemos: quando se fala de buscadores, se fala de Google – e a sua relevância é absolutamente determinante para o sucesso de um conteúdo, como comprova o marco de 2,3 milhões de buscas feitas em sua plataforma a cada segundo[1].

Uma pesquisa feita pela norte-americana Moz[2] sublinhou a importância do buscador para todo o mercado moderno:

Screen Shot 2016-07-22 at 5.40.08 PMScreen Shot 2016-07-22 at 5.40.16 PM

Só que, claro, estar indexado no Google não é sinônimo de ser clicado. Ao contrário: a mesma pesquisa indica que 86% dos usuários não passam da terceira página de resultados, como pode ser visto no gráfico abaixo:

Screen Shot 2016-07-22 at 5.40.24 PM

O que isso significa? Que, para ter um conteúdo bem acessado, é fundamental que ele apareça como resultado de busca nas três primeiras páginas do Google.

Ou, colocando em outros termos: para ter um conteúdo bem acessado, é fundamental convencer o Google a posicioná-lo nas suas três primeiras páginas.

Perceba que a diferença entre uma frase e outra é que, na segunda, há uma atitude muito mais clara e verbalizada em relação ao buscador. Não é por ele ser um sistema, afinal, que ele não possa ser convencido ativamente de algo.

E como se convence um sistema como o Google a priorizar o seu conteúdo?

Há toda uma disciplina regendo isso: SEO, ou Search Engine Optimization. Em geral, trata-se de um conjunto de regras que facilita o buscador a relacionar o seu conteúdo com uma determinada busca de um usuário.

Neste ponto, é importante entender que estamos argumentando com um conjunto de algoritmos e não com pessoas. O que convence um sistema, portanto, é um conjunto bem articulado de fatores técnicos, tão objetivos quanto eles.

O problema é que, se todas as boas práticas para otimizar um conteúdo forem seguidas por todos, o conceito de otimização em si cai por terra, criando um paradoxo crítico. O Google lida com isso alterando, com alguma frequência (cerca de 500 vezes por ano), as regras que fazem um determinado conteúdo se sobressair em relação a outros – sempre buscando afinar os resultados que indica à demanda real dos usuários.

Isso é crucial inclusive para a sua sobrevivência: se ninguém encontrar o conteúdo exato que busca no Google, o próprio Google acaba caindo em desuso.

Como, portanto, fazer um sistema entender a relevância de uma busca qualquer? Por mais que os pesos de cada um dos fatores mude na composição desse índice de relevância, alguns devem sempre ser observados, como:

  • O conteúdo precisa ser relevante de verdade: No passado, o Google entendia que se um usuário fazendo uma busca clicasse no seu site, o site em si era relevante. Hoje, as regras são outras: toda uma diversidade de fatores, incluindo o tempo que ele passou no seu site e quantidade de páginas pelas quais navegou, são consideradas. Ou seja: se o conteúdo não for realmente a resposta para a busca do usuário, ele fatalmente perderá relevância.
  • Destaque para respostas, não palavras: Hoje, 75% das buscas feitas no Google são frases com 3 a 5 palavras. Quanto mais o título de um determinado artigo se assemelhar a essas palavras, mais relevância ele terá pelo buscador. Ou seja: ganha o artigo cujo título mais se assemelhar à pergunta feita pelos usuários.
  • Tamanho importa: Por incrível que pareça, páginas com mais conteúdo são consideradas mais relevantes. Artigos com algo entre 1.200 a 1.500 palavras, por exemplo, performam melhor que artigos com 300 palavras.
  • Originalidade: quanto mais conteúdo único, autoral, o site tiver, mais importante ele será. Replicar conteúdos por diversas plataformas, nesse caso, acaba tirando relevância.
  • Imagens únicas: A mesma regra de originalidade vale para imagens: quanto menos padronizadas, típicas de bancos de imagens, melhor.
  • Responsividade: O crescimento do uso de smartphones e tablets fez com que sites adaptáveis às suas interfaces menores se transformassem m um critério determinantes para a priorização.
  • Um mundo de coisas técnicas: Além dessas questões relacionadas ao conteúdo em si, há todo um mar de fatores técnicos como a maneira com que o endereço da página é construída, a existência de links no meio do texto, o uso de palavras-chave e assim por diante.

Montar um texto, hoje, vai muito além de construir um conteúdo que agrade a um público humano: é fundamental elaborá-lo para agradar aos algoritmos do Google. São estes algoritmos que priorizarão o conteúdo nos resultados de busca, ampliando, assim, toda a audiência.

Embora trabalhar o SEO de um conteúdo Web não seja exatamente a mesma coisa que conversar ativamente com um robô nas redes sociais, o princípio continua sendo o mesmo: a relevância depende de uma interação que vai muito além do universo humano.

[1] Fonte: http://expandedramblings.com/index.php/by-the-numbers-a-gigantic-list-of-google-stats-and-facts/

[2] Fonte: https://moz.com/blog/new-data-reveals-67-of-consumers-are-influenced-by-online-reviews

[Algoritmos & Robôs: Os novos públicos-alvo das marcas] Os robôs nas redes sociais

Não é preciso dizer que um robô dificilmente conseguiria a capacidade intelectual necessária para escrever uma obra como Guerra e Paz. Apenas repetindo o óbvio: no passado, na era de escassez de conteúdo, obras densas assim eram fundamentais para mudar a opinião de pessoas que, em geral, tinham em suas mãos muito tempo, poucos contatos e poucas opções de conteúdo.

Quando tudo muda… bem… tudo muda.

Com tanto conteúdo e tantos amigos por aí, basta ser simples e preciso para formar uma opinião.

O caso Lajello

Em 2009, Luca Maria Aiello e alguns amigos da Universidade de Turim, na Itália, resolveram estudar o comportamento das pessoas em uma rede social local chamada aNobii.com, focada em indicações de livros.

Pelas regras da rede, cada pessoa tinha uma página de perfil aberta e podia escolher ficar amigo de quem quisesse. Uma rede absolutamente tradicional, portanto.

Para mapear a aNobii, Aiello desenvolveu um crawler – uma especie de “robô rastreador” – que começava visitando o perfil de uma pessoa e, partir dela, cada uma de suas conexões, visitando em seguida as conexões de cada conexão e assim por diante.

E, claro, para ter acesso à rede, a equipe precisou criar um perfil próprio para este robô, que ela batizaram de Lajello.

Em julho de 2010, a própria rede social alterou a sua política de privacidade permitindo que todos os usuários pudessem ver as pessoas que visitaram as suas páginas de perfil, o que acabou tirando Lajello do anonimato.

De maneira quase instantânea, a página de perfil de Lajello começou a receber visitas de usuários curiosos por saber quem estava interessado neles – um tipo de contrafluxo inesperado. Luca Aiello então se fez uma pergunta: seria possível transformar um robô em um indivíduo popular e influente?

Para responder a essa pergunta, Lajello primeiro foi programado para não interagir com ninguém exceto por meio das visitas rotineiras às páginas de perfil. O objetivo, claro, era medir as consequências de um volume mínimo de interação social. A partir daí, eles começaram a registrar as respostas dos usuários na página de Lajello.

A cada rodada de visitas que o robô fazia ele ganhava diversas mensagens em seu mural; quando as visitas cessavam, a atividade também desaparecia.

Como as visitas eram muitas, no entanto, os números registrados foram impressionantes: até dezembro de 2011 (um ano e meio depois do começo do experimento, portanto), a página de Lajello somava 2.435 mensagens deixadas por mais de 1.200 pessoas em 66 mil visitas. Ninguém sabia que se tratava de um robô.

Para se ter ideia da expressividade desses números, Lajello já era o segundo perfil mais popular de toda a rede.

Mas, se a popularidade havia sido alcançada, faltava ainda transformar o robô em um indivíduo influente.

Para fazer isso, o time programou Lajello para recomendar amigos randomicamente – ou seja, sugerindo que um usuário conectado a ele se conectasse a outro usuário. Resultado: 52% das suas recomendações foram seguidas.

O caso de Lajello acabou sendo aberto e discutido em toda a Itália e, eventualmente, a aNobii tirou o seu perfil do ar. O experimento, no entanto, funcionara: um robô comprovadamente conseguiu se transformar em um indivíduo popular e formador de opinião.