Livro Algoritmos & Robôs: Os novos públicos-alvo das marcas

Vim publicando, ao longo das últimas semanas, todo o meu novo livro aqui no blog. Pois bem: certamente há quem se contente com o material em forma de post mesmo – e que sempre estará por aqui.

No entanto, se preferir adquirir o livro inteiro de maneira organizada, estruturada, seja em forma impressa ou digital, ele está já à venda no Clube de Autores.

Para saber mais e comprar, basta clicar aqui, na imagem abaixo ou diretamente neste link: https://www.clubedeautores.com.br/book/215122–Algoritmos__Robos

Screen Shot 2016-08-09 at 11.23.21 AM

Espero que gostem!

 

[Algoritmos & Robôs: Os novos públicos-alvo das marcas] Os novos escravos

Curiosamente, o cenário que se põe à nossa frente hoje é o mesmo com o qual a humanidade se deparou desde que se definiu como espécie: a busca por mão de obra gratuita para executar tarefas braçais em grande escala.

Sistemas de inteligência artificial já assumem hoje o papel de escravos de seres humanos: eles operam de acordo com regras criadas pela nossa espécie, interferem na nossa produtividade e, da mesma maneira que nas eras passadas, já são maioria numérica.

O lado positivo dessa “evolução”, se assim pudermos considerar o novo modelo mercadológico e social no qual estamos inseridos, é que esses novos escravos são seres incapazes de sentir dores ou de se cansar. Eles obedecem aos comandos de seus mestres sem que estes mesmos mestres – nós – “precisem” recorrer a métodos tão sádicos e perversos como os que tanto caracterizaram a nossa história.

E como lidar com este novo público-alvo?

O primeiro passo é entender que, mesmo assumindo esse papel de “escravos de humanos”, algoritmos e sistemas são formadores de opinião e maioria dentre os perfis sociais com os quais lidamos em nosso cotidiano.

E, se estamos falando de um perfil ativo, de um influenciador, muitas das mesmas regras aplicadas aos humanos também devem ser seguidas quando focamos computadores.

Vamos a um exemplo hipotético simples: uma campanha feita para a venda de molhos de tomate cujos consumidores, obviamente, são todos humanos.

No passado, bastaria produzir campanhas de TV, rádio ou mídia impressa para impactar os espectadores.

Hoje, no entanto, as regras são outras, e a marca de molho de tomates deverá considerar os seguintes itens caso deseje ter um mínimo de sucesso:

  1. Será importante para este molho publicar, em um site próprio, uma série de receitas que o incluam como ingrediente. A escolha dessas receitas e mesmo os formatos utilizados (texto, imagens e vídeos) deverão ser definidos de acordo com regras práticas de SEO e visando amplificar a presença orgânica da marca nas buscas feitas no Google. Aqui, portanto, se estará trabalhando o algoritmo do buscador como público-alvo determinante.
  2. Em redes sociais, toda uma seleção de textos e imagens com chamadas específicas deverá ser feita para otimizar o engajamento instantâneo, interferindo diretamente, por exemplo, no Score de Relevância do Facebook. O motivo? Quanto maior a relevância, menos se pagará por impacto e, portanto, mais seres humanos se alcançará com a mesma verba. O conteúdo, em grande parte, será montado de acordo com o gosto do algoritmo do Facebook.
  3. A escolha de textos e peças para mídia em buscadores ou redes contextuais, por sua vez, também levará em conta as regras do Índice de Qualidade do Google como maneira de ampliar o alcance e baratear os custos.
  4. Mesmo no ponto de venda é possível desenvolver chatbots para dialogar com os consumidores no momento da compra, indicando mais ingredientes complementares para alguma receita especial.

Nunca é demais ressaltar: o objetivo do marketing é e sempre será o mesmo, de vender mais produtos. O que mudou de algum tempo para cá foi justamente o método.

Se, no passado, bastava investir na criação de uma linguagem impactante para o consumidor final, hoje é fundamental criar uma linguagem que influencie também o intermediário – o conjunto de robôs e algoritmos – que, por sua vez, influenciará diretamente na capacidade de entrega da mensagem.

Já vivemos hoje imersos no enredo de um filme de ficção científica.

Só nos damos muito pouca conta disso.

[Algoritmos & Robôs: Os novos públicos-alvo das marcas] Robôs dominarão o mundo?

Como será o futuro de um mundo com seres inanimados, artificiais, influenciando cada vez mais em nossas decisões? Haverá um momento em que algum robô desenvolverá a consciência e passará a operar por regras próprias, mais de acordo com as suas próprias crenças do que com a maneira com que foi programado?

Por mais que nos inclinemos a acreditar nesse apocalipse cibernético – a humanidade sempre teve um quê de masoquista quanto a si mesma – tenho sérias dúvidas.

O poder do erro

Robôs foram concebidos, mesmo nos filmes de ficção científica, para funcionar como entidades perfeitas e sem os defeitos inerentes à biologia humana. Até aí, nenhuma novidade.

Filmes mais fatalistas (como o Exterminador do Futuro ou Matrix) criaram toda uma visão de futuro em que robôs, dotados de inteligência lógica maior e mais poderosa que os humanos jamais teriam, acabaram concluindo que nós éramos a grande praga do mundo e buscaram destruir a nossa espécie.

A questão é que todo e qualquer sistema de inteligência artificial se baseia em uma espécie de lógica unidirecional: ao encontrar um problema, ele buscará resolvê-lo da maneira mais eficiente possível. Sim: parte das tentativas de resolução resultará em falhas, naturalmente – e sistemas inteligentes aprenderão a não repetir mais essas falhas enquanto engendram outras possibilidades de solução. Seja por matemática ou tentativa e erro, o objetivo de um robô sempre será resolver um problema colocado diante de si, algo que eventualmente ele conseguirá fazer com uma velocidade e qualidade muito maior que o mais genial dos humanos. Robôs são eficientes.

O problema é justamente este: sistemas de inteligência artificial estarão sempre atrelados a um objetivo (e, portanto, desconectados de um ambiente caótico como é o funcionamento do cérebro humano).

Recorro a um exemplo simples, quase simplório, para me explicar melhor: o Post-it. A criação deste que é um dos mais rentáveis produtos do mundo foi uma espécie de erro de cálculo, de falha. Na prática, os seus criadores estavam buscando desenvolver uma cola hiper-resistente, chegando, obviamente que por uma falha de percurso, no que se pode considerar uma pseudo-cola fraca o bastante para ser quase inútil.

Se o processo criativo estivesse sendo determinado por um robô, ele rapidamente aprenderia com o erro, descartaria a cola fraca e seguiria tentando criar a sua super-cola, provavelmente com um sucesso mais rápido que seus pares humanos. Seu objetivo seria esse, afinal – e robôs não mudam de rota.

O humano que viu essa pseudo-cola gerada por um erro, no entanto, acabou criando um novo produto, com um novo propósito, a partir de todo um conjunto caótico de sinapses que ocorreram no fundo do seu cérebro. Deve ter pensado em papéis soltos na sua mesa de trabalho; no quanto seria útil se ele conseguisse colar lembretes em seu mural; na necessidade desses lembretes serem descartados facilmente no instante em que fossem resolvidos; e assim por diante. Deve ter pensado em todo um conjunto de problemas humanos que computadores jamais teriam – e foi desse conjunto de pensamentos absolutamente desconectados do objetivo de desenvolver a super-cola que ele acabou concebendo o Post-it.

Ao invés de mudar a fórmula da invenção que buscava para atender ao desafio originalmente colocado diante de si, ele mudou o objetivo para encaixar a fórmula “falha” que criou por acidente de percurso. Inverteu-se a lógica em um processo que, sob a ótica do propósito original, foi absolutamente ineficiente.

O que o humano fez que um robô jamais faria? Ele mergulhou fundo no caos de seus pensamentos, ainda que de maneira inconsciente, e teve o estalo de se desconectar de seu objetivo primário e fugir de toda uma linha própria e estabelecida de raciocínio. Ele mudou de raia, por assim dizer, e preferiu adotar uma espécie de caminho ilogicamente mais longo, torto, quase conscientemente “errado”.

E é precisamente isso que robôs jamais conseguirão fazer por um motivo simples: eles não tem inconsciência e nem consciência, elementos fundamentais para que consigamos raciocinar de maneira livre e caótica.

Sim: sistemas de inteligência artificial são solucionadores de problemas muito, mas muito mais eficientes que os humanos (e precisamente pela mesma falta de consciência e inconsciência que nos caracteriza e nos faz “mudar de raias” de maneira tão fácil). Só que inovação não é pautada pela habilidade de se resolver problemas: ela é, antes de mais nada, pautada pela capacidade de se detectar os problemas.

E isso sim requer algo que vai muito além de um conjunto de fórmulas programadas em um computador.

[Algoritmos & Robôs: Os novos públicos-alvo das marcas] SEO e robôs determinando o que se vê

Em linhas gerais, há quatro maneiras de um usuário chegar a um determinado conteúdo online:

  1. Acessando diretamente o endereço do conteúdo em seu navegador
  2. Se deparando com uma recomendação do conteúdo via redes sociais
  3. Se deparando com uma recomendação do conteúdo em outros sites
  4. Pesquisando um determinado assunto em um buscador

Não nos enganemos: quando se fala de buscadores, se fala de Google – e a sua relevância é absolutamente determinante para o sucesso de um conteúdo, como comprova o marco de 2,3 milhões de buscas feitas em sua plataforma a cada segundo[1].

Uma pesquisa feita pela norte-americana Moz[2] sublinhou a importância do buscador para todo o mercado moderno:

Screen Shot 2016-07-22 at 5.40.08 PMScreen Shot 2016-07-22 at 5.40.16 PM

Só que, claro, estar indexado no Google não é sinônimo de ser clicado. Ao contrário: a mesma pesquisa indica que 86% dos usuários não passam da terceira página de resultados, como pode ser visto no gráfico abaixo:

Screen Shot 2016-07-22 at 5.40.24 PM

O que isso significa? Que, para ter um conteúdo bem acessado, é fundamental que ele apareça como resultado de busca nas três primeiras páginas do Google.

Ou, colocando em outros termos: para ter um conteúdo bem acessado, é fundamental convencer o Google a posicioná-lo nas suas três primeiras páginas.

Perceba que a diferença entre uma frase e outra é que, na segunda, há uma atitude muito mais clara e verbalizada em relação ao buscador. Não é por ele ser um sistema, afinal, que ele não possa ser convencido ativamente de algo.

E como se convence um sistema como o Google a priorizar o seu conteúdo?

Há toda uma disciplina regendo isso: SEO, ou Search Engine Optimization. Em geral, trata-se de um conjunto de regras que facilita o buscador a relacionar o seu conteúdo com uma determinada busca de um usuário.

Neste ponto, é importante entender que estamos argumentando com um conjunto de algoritmos e não com pessoas. O que convence um sistema, portanto, é um conjunto bem articulado de fatores técnicos, tão objetivos quanto eles.

O problema é que, se todas as boas práticas para otimizar um conteúdo forem seguidas por todos, o conceito de otimização em si cai por terra, criando um paradoxo crítico. O Google lida com isso alterando, com alguma frequência (cerca de 500 vezes por ano), as regras que fazem um determinado conteúdo se sobressair em relação a outros – sempre buscando afinar os resultados que indica à demanda real dos usuários.

Isso é crucial inclusive para a sua sobrevivência: se ninguém encontrar o conteúdo exato que busca no Google, o próprio Google acaba caindo em desuso.

Como, portanto, fazer um sistema entender a relevância de uma busca qualquer? Por mais que os pesos de cada um dos fatores mude na composição desse índice de relevância, alguns devem sempre ser observados, como:

  • O conteúdo precisa ser relevante de verdade: No passado, o Google entendia que se um usuário fazendo uma busca clicasse no seu site, o site em si era relevante. Hoje, as regras são outras: toda uma diversidade de fatores, incluindo o tempo que ele passou no seu site e quantidade de páginas pelas quais navegou, são consideradas. Ou seja: se o conteúdo não for realmente a resposta para a busca do usuário, ele fatalmente perderá relevância.
  • Destaque para respostas, não palavras: Hoje, 75% das buscas feitas no Google são frases com 3 a 5 palavras. Quanto mais o título de um determinado artigo se assemelhar a essas palavras, mais relevância ele terá pelo buscador. Ou seja: ganha o artigo cujo título mais se assemelhar à pergunta feita pelos usuários.
  • Tamanho importa: Por incrível que pareça, páginas com mais conteúdo são consideradas mais relevantes. Artigos com algo entre 1.200 a 1.500 palavras, por exemplo, performam melhor que artigos com 300 palavras.
  • Originalidade: quanto mais conteúdo único, autoral, o site tiver, mais importante ele será. Replicar conteúdos por diversas plataformas, nesse caso, acaba tirando relevância.
  • Imagens únicas: A mesma regra de originalidade vale para imagens: quanto menos padronizadas, típicas de bancos de imagens, melhor.
  • Responsividade: O crescimento do uso de smartphones e tablets fez com que sites adaptáveis às suas interfaces menores se transformassem m um critério determinantes para a priorização.
  • Um mundo de coisas técnicas: Além dessas questões relacionadas ao conteúdo em si, há todo um mar de fatores técnicos como a maneira com que o endereço da página é construída, a existência de links no meio do texto, o uso de palavras-chave e assim por diante.

Montar um texto, hoje, vai muito além de construir um conteúdo que agrade a um público humano: é fundamental elaborá-lo para agradar aos algoritmos do Google. São estes algoritmos que priorizarão o conteúdo nos resultados de busca, ampliando, assim, toda a audiência.

Embora trabalhar o SEO de um conteúdo Web não seja exatamente a mesma coisa que conversar ativamente com um robô nas redes sociais, o princípio continua sendo o mesmo: a relevância depende de uma interação que vai muito além do universo humano.

[1] Fonte: http://expandedramblings.com/index.php/by-the-numbers-a-gigantic-list-of-google-stats-and-facts/

[2] Fonte: https://moz.com/blog/new-data-reveals-67-of-consumers-are-influenced-by-online-reviews

[Algoritmos & Robôs: Os novos públicos-alvo das marcas] O gosto dos algoritmos influenciando a compra programática de mídia

Antes, uma breve conceituação: mídia programática é uma maneira de se comprar mídia de maneira programada e dinâmica, sem a necessidade de intermediação humana ou mesmo de publicação manual veículo a veículo de peças.

Algumas estatísticas básicas para entender a forçada mídia programática:

  • Entre abril de 2014 e abril de 2015, o volume de compra de mídia programática cresceu 76%[1]
  • Em 2014, a mídia programática nos EUA chegou a US$ 10,1 bilhões, o equivalente a 20% do total do mercado de publicidade online; em 2016, estima-se que este número chegue a US$ 22,1 bilhões, ou 67% do mercado[2]

Mídia programática não é o futuro: é o presente, inclusive deste lado do equador.

A evolução no modelo de compra

Essa mudança no perfil do mercado de mídia, no entanto, não foi à toa: ela fez sentido justamente por transformar a publicidade em algo efetivamente útil para o consumidor.

Lá nos primórdios, os principais modelos de mídia programática se baseavam essencialmente em leilão: o anunciante que pagasse mais, por exemplo, por uma palavra-chave, acabava ganhando mais destaque.

Dentre as tantas vantagens, a que mais se destacava era a capacidade de se fazer uma segmentação muito mais próxima da perfeição ao utilizar dados demográficos e comportamentais presentes, por exemplo, em redes sociais.

Mas isso era apenas a ponta do iceberg.

Empresas como Google e Facebook tem na relevância do conteúdo que exibem aos seus usuários o principal fator de sucesso.

O que aconteceria se apenas o leilão determinasse o posicionamento de um determinado anúncio – principalmente levando em consideração que anúncios também são conteúdo? Os clientes mais ricos acabariam impondo ao modelo de mídia programática o mesmo conceito de mídia de massa ao qual eles se habituaram no universo offline. Como resultado, anúncios não necessariamente relevantes seriam exibidos para massas maiores de pessoas e, gradativamente, o modelo comercial como um todo acabaria tão insustentável quanto os modelos ultrapassados de mídia offline tradicional.

A solução: criar mecanismos de interpretação desses anúncios, privilegiando os que, na visão dos veículos, melhor se encaixarem no perfil do público. Traduzindo: criar robôs capazes de influenciar diretamente no processo de compra e entrega dos anúncios publicitários.

O Índice de Qualidade do Google

Para o Google, esse modelo automatizado de interferência é chamado de Índice de Qualidade.

De acordo com a própria empresa[3]:

Como os componentes do Índice de qualidade afetam a classificação do anúncio

Toda vez que alguém faz uma pesquisa que aciona um anúncio que concorre em um leilão, nós calculamos uma classificação do anúncio. Esse cálculo incorpora seu lance, as avaliações do momento do leilão da CTR (click-thru rate) esperada, relevância do anúncio e experiência na página de destino, além de outros fatores. Para determinar os componentes de qualidade do momento do leilão, analisamos vários fatores diferentes.

Ao aprimorar os fatores a seguir, você pode ajudar a melhorar os componentes de qualidade da sua classificação do anúncio:

  • A CTR esperada do seu anúncio: baseia-se, em parte, no histórico de cliques e impressões do anúncio (excluindo fatores como a posição, extensões e outros formatos que possam ter afetado a visibilidade de um anúncio em que alguém clicou anteriormente)
  • A CTR anterior do seu URL de visualização: o histórico de cliques e impressões que seu URL de visualização recebeu
  • A qualidade da sua página de destino: qual é a relevância, transparência e facilidade de navegação da sua página
  • A relevância do seu anúncio para a pesquisa: qual é a relevância do texto do anúncio para o que uma pessoa pesquisa
  • Desempenho geográfico: o desempenho da sua conta nas regiões segmentadas
  • Seus dispositivos segmentados: o desempenho dos seus anúncios em diferentes tipos de dispositivos, como computadores/notebooks, celulares e tablets

Como a qualidade do anúncio afeta você

Os componentes de qualidade da classificação do anúncio são usados de várias maneiras diferentes e podem afetar os seguintes itens na sua conta:

  • Qualificação para o leilão de anúncios: componentes de qualidade melhores normalmente fazem com que seus anúncios entrem nos leilões de forma mais fácil e barata. Nossas métricas de qualidade do anúncio também ajudam a determinar se seu anúncio está qualificado para exibição.
  • Seu custo por clique (CPC) real: anúncios de maior qualidade geralmente levam a CPCs mais baixos. Isso significa que você paga menos por clique quando a qualidade dos seus anúncios é maior.
  • Posição do anúncio: anúncios de maior qualidade levam a posições de anúncios melhores, o que significa que eles podem ser exibidos em posições superiores na página.
  • Estimativas de lance para posição do anúncio da sua palavra-chave: anúncios de maior qualidade são normalmente associados a valores mais baixo de estimativa de lance de primeira página, estimativa de lance na parte superior da página e estimativa de lance para primeira posição. Isso significa que é mais provável conseguir exibir seus anúncios na primeira página dos resultados de pesquisa quando eles têm componentes de alta qualidade (CTR esperada, relevância do anúncio e experiência na página de destino).
  • Qualificação para usar extensões e outros formatos de anúncio: alguns formatos de anúncio exigem uma qualidade mínima dos anúncios para que eles sejam. Além disso, a classificação do anúncio determina se ele está ou não qualificado para exibição com extensões de anúncio e outros formatos de anúncio, como site links. Como a classificação do anúncio é uma função dos componentes do Índice de qualidade, anúncios de melhor qualidade podem aumentar a probabilidade de serem exibidos com extensões e outros formatos.

Há uma tabela utilizada pelo próprio Google que explica bem o modelo de leilão:

Untitled3

Em resumo: o Índice de Qualidade funciona como um elemento influenciador na fórmula de precificação de anúncio.

Quanto maior o índice, melhor o posicionamento do anúncio em relação a um determinado perfil de busca ou navegação e menor o custo a ser pago por cada clique nele.

Traduzindo: um desempenho otimizado de um anúncio é obtido apenas quando se convence o sistema do Google de que o seu anúncio é perfeito para aquela situação.

O Score de Relevância do Facebook

O Facebook é menos aberto que o Google sobre o funcionamento de seu algoritmo, destacando apenas que trabalha de acordo com um teste real (e que segue a mesma linha de raciocínio).

Ou seja: quando um determinado anúncio é iniciado, o Facebook mede o seu desempenho a partir das 500 primeiras impressões. Quanto melhor este desempenho, mais vantajosas vão ficando as condições comerciais ajustadas praticamente em tempo real.

Assim, quanto mais relevante o algoritmo do Facebook considerar um anúncio, menor será o custo por clique cobrado – o que também significa que maior será o seu alcance.

O gráfico abaixo mostra a diferença prática desse score de relevância no caso de uma campanha feita pela A2C para um cliente:

Untitled4

Perceba que as primeiras colunas, estimadas com base na própria ferramenta de mídia do Facebook, indicaram um total de 2,1 milhões de pessoas impactadas pouco mais de três vezes cada (gerando assim 6,5 milhões de exibições ou impactos).

Nesta campanha, tanto a segmentação quanto os conteúdos dos anúncios foram trabalhados de maneira a gerar o máximo possível de engajamento principalmente nos seus primeiros minutos de vida. Resultado: com a mesma verba e de maneira inteiramente dinâmica, mais que o dobro de usuários foi atingido (5,3 milhões) com uma frequência ainda maior (somando 20,7 milhões de exibições).

Há prova maior da importância de se encarar robôs como um público-alvo primordial? Apenas nesse exemplo acima, fazer isso significou mais que dobrar os resultados em pessoas reais.

A título de perspectiva…

Sim: os exemplos acima são apenas de duas redes para mídia programática – Google e Facebook. Juntos, no entanto, esses dois nomes costumam combinar pouco com a palavra “apenas”: de acordo com a Bloomberg[4], eles somam 64% de todo o mercado de mídia digital.

Números desses garantem que os modelos extremamente semelhantes de fazer robôs influenciarem no alcance dos anúncios seja não apenas a realidade das duas gigantes mas sim algo que já é perseguido por todos os players relevantes.

[1] Fonte: https://econsultancy.com/blog/66759-10-fascinating-stats-about-the-programmatic-advertising-space/

[2] Fonte: http://www.emarketer.com/Article/More-Than-Two-Thirds-of-US-Digital-Display-Ad-Spending-Programmatic/1013789

[3] Transcrição literal da página: https://support.google.com/adwords/answer/2454010?hl=pt-BR

[4] Fonte: http://www.bloomberg.com/news/articles/2016-04-22/google-and-facebook-lead-digital-ad-industry-to-revenue-record

[Algoritmos & Robôs: Os novos públicos-alvo das marcas] Chatbots e o Conversational Commerce

Os casos de Lajello e dos tantos milhões de robôs que interagem Internet afora tem em comum a obscuridade: quase nenhum usuário sabia ou sabe que está dialogando com um sistema. Ao contrário: a eficiência buscada por eles parte justamente do princípio de que as suas atuações precisam permanecer insuspeitas, o que faz com que redes sociais como um todo desenvolvam operações robustas de caça a robôs (ou bots, como costumam ser chamados).

Mas e se essas mesmas redes passassem a incentivar o uso mais inteligente e transparente de bots? Do ponto de vista de relacionamento homem-máquina, afinal, o preconceito de um usuário convencional costuma ser inversamente proporcional à praticidade que o sistema o entrega: quanto mais efetivo um bot, menor a resistência a ele.

Em abril de 2016, o Facebook começou a liberar o seu chatbot para uso por empresas. O modelo, basicamente, parte da seguinte premissa:

  1. Usuários convencionais podem enviar mensagens para empresas com as quais se relacionam por meio do aplicativo Facebook Messenger
  2. Essas mesmas empresas podem usar o sistema do Facebook Messenger para customizar fluxos automatizados de resposta altamente sofisticados, efetivamente interagindo com os usuários
  3. As conversas como um todo acabam esclarecendo dúvidas ou induzindo os usuários a tomar decisões de compra

O exemplo na imagem abaixo é de uma conversa real com a loja Adoro, sendo que a consultora de moda (que abre o papo com “Namaste”) é, na realidade, um sistema.

O que ele faz? Pergunta como pode ajudar uma cliente, interpreta as demandas que recebe como se fossem buscas feitas no site, devolvendo opções selecionáveis, e permite que o próprio usuário afine suas demandas durante a conversa, comprando online. Isso sem contar as outras tantas possibilidades que incluem, por exemplo, todo o processo de relacionamento com o consumidor.

Untitled

Claro: nem todas as perguntas são interpretadas à perfeição e, às vezes, o sistema acaba se atrapalhando um pouco. Ainda assim, ele consegue ser efetivo em mais de 90% dos casos, sendo este um dos motivos de estar transformando o comércio eletrônico mundial ao potencializar o conceito de conversational commerce (e-commerce intermediado por conversas).

Os outros três motivos, além da eficácia técnica em si[1]?

Primeiro, o uso de aplicativos de mensageria já ultrapassou o uso de aplicativos de redes sociais, algo inimaginável há pouco tempo e que garante uma base perfeita de consumidores em potencial:

Untitled2

Segundo, a integração de meios de pagamento com sistemas diversos por meio de APIs simples já são uma realidade.

Por fim – e esse talvez seja o mais importante dos indicadores – o volume de transações offline representa quase 90% do total do comércio mundial.

Por que esse dado é importante? Porque uma decisão de compra offline é, em grande parte, tomada por causa da influência ou intermediação de um terceiro (normalmente um vendedor). Ao virtualizar e automatizar essa figura, mantendo toda a sua capacidade de indução integrada a uma conversa lógica, os bots conseguem entrar em um vasto e riquíssimo território novo.

Ainda sobre os chatbots, vale reforçar que eles não são exclusivos do Facebook. Empresas como Slack e WeChat já trabalham há mais tempo com a tecnologia reportando repetidos casos de sucesso. Só que o tamanho do Facebook e a alta aderência dos usuários fez dele uma vitrine perfeita para este novo uso de uma tecnologia talvez não tão nova assim.

No final de junho de 2016 – menos de 3 meses depois do lançamento do seu chatbot, portanto – a rede esbanjou o número de 11 mil robôs criados e um total de 23 mil contas abertas[2] por empresas no ambiente de desenvolvimento de bots.

[1] Fonte: http://venturebeat.com/2016/06/16/the-state-of-bots-11-examples-of-conversational-commerce-in-2016/

[2] Fonte: http://venturebeat.com/2016/06/30/facebook-messenger-now-has-11000-chatbots-for-you-to-try/

[Algoritmos & Robôs: Os novos públicos-alvo das marcas] Nós, humanos, já somos a minoria

O caso Lajello foi apenas um de muitos – e sua utilidade como alvo de um experimento universitário acabou evitando influência mais voltada à formação de opinião relacionada a produtos, serviços ou ideologias.

Ele serve, no entanto, para ilustrar.

Da mesma forma que um robô pode ser programado para fazer recomendações de amizades, ele também pode recomendar produtos ou compartilhar opiniões. Basta que eles sejam programados para isso.

E, embora todas as redes sociais tenham sistemas desenvolvidos para localizar e excluir perfis de robôs, o sucesso dessa empreitada é baixíssimo.

Considerando que um sistema anti-robô é, por si só, um outro robô, basta “enganá-lo” agindo com a imperfeição típica de um humano. Exemplificando:

Seria fácil para um perfil robô fazer milhares de posts ou mensagens simultâneas – mas isso também o deixaria exposto ao sistema anti-robô. Como combater isso? Programando-o para fazer apenas dez ou quinze postagens por hora, por exemplo.

Da mesma forma, um robô também se exporia se mandasse exatamente a mesma mensagem diversas vezes para diversas pessoas. A solução? Usar desde sinônimos de maneira automática a recomendações de outras postagens feitas por outros usuários cujas “opiniões” ele compartilha.

Para cada armadilha, claro, há uma solução. E, assim, o universo virtual vai se enchendo de robôs que, em geral, são confundidos com pessoas reais.

Basicamente, os bots seguem uma mecânica simples:

  1. Tem uma página de perfil aparentemente real, criada para que se assemelhe com uma pessoa normal
  2. Buscam amigos com facilidade para enganar as pessoas que, em geral, assumem que qualquer perfil com muitos seguidores é crível. Essa busca tem dois caminhos: via comércio eletrônico, onde efetivamente se consegue “comprar amigos” – sendo a grande maioria deles outros robôs – ou fazendo solicitações automáticas de amizade. Um estudo recente apontou que 1 em cada 5 pessoas aceitam solicitações de amizades em redes sociais mesmo sem conhecer o solicitante[1].
  3. Postam opiniões sobre produtos, serviços ou ideologias ou apenas compartilham posts de personalidades com as quais tenham “afinidade ideológica”

A mágica, a partir daí, está feita: as redes sociais começam a se encher de opiniões de robôs sobre tudo e todos, interferindo de maneira decisiva no Parâmetro de Laggard e efetivamente moldando a opinião das pessoas.

Quer saber o volume disso na vida real? De acordo com a Forbes[2], apenas 49% dos perfis sociais são de humanos e 30% destes humanos acabam sendo enganados (ou “convencidos”) por robôs.

Robôs na campanha para presidente

Em 2015, um documento interno do governo federal acabou sendo publicado pelo Estado de São Paulo[3].

Nele, a própria Secretaria de Comunicação (SECOM) admitiu o uso de robôs na campanha de reeleição da Presidente Dilma Rousseff. O objetivo dos perfis falsos era simples: popular as redes com mensagens positivas sobre a primeira gestão e negativas sobre os candidatos de oposição, além de garantir que hashtags a favor da candidata frequentemente se mantivessem nos sempre desejados Trending Topics do Twitter.

Considerando que mais da metade da população brasileira está na Internet e tem perfil ativo nas redes sociais, é plausível considerar que o papel dos robôs acabou sendo importantíssimo para a vitória petista no pleito federal.

[1] Fonte: http://lersse-dl.ece.ubc.ca/record/264/files/264.pdf

[2] Fonte: http://www.forbes.com/sites/lutzfinger/2015/02/17/do-evil-the-business-of-social-media-bots/#491546aa1104

[3] Fonte: http://politica.estadao.com.br/noticias/geral,governo-cita-uso-de-robos-nas-redes-sociais-em-campanha-eleitoral,1652771

[Algoritmos & Robôs: Os novos públicos-alvo das marcas] Os robôs nas redes sociais

Não é preciso dizer que um robô dificilmente conseguiria a capacidade intelectual necessária para escrever uma obra como Guerra e Paz. Apenas repetindo o óbvio: no passado, na era de escassez de conteúdo, obras densas assim eram fundamentais para mudar a opinião de pessoas que, em geral, tinham em suas mãos muito tempo, poucos contatos e poucas opções de conteúdo.

Quando tudo muda… bem… tudo muda.

Com tanto conteúdo e tantos amigos por aí, basta ser simples e preciso para formar uma opinião.

O caso Lajello

Em 2009, Luca Maria Aiello e alguns amigos da Universidade de Turim, na Itália, resolveram estudar o comportamento das pessoas em uma rede social local chamada aNobii.com, focada em indicações de livros.

Pelas regras da rede, cada pessoa tinha uma página de perfil aberta e podia escolher ficar amigo de quem quisesse. Uma rede absolutamente tradicional, portanto.

Para mapear a aNobii, Aiello desenvolveu um crawler – uma especie de “robô rastreador” – que começava visitando o perfil de uma pessoa e, partir dela, cada uma de suas conexões, visitando em seguida as conexões de cada conexão e assim por diante.

E, claro, para ter acesso à rede, a equipe precisou criar um perfil próprio para este robô, que ela batizaram de Lajello.

Em julho de 2010, a própria rede social alterou a sua política de privacidade permitindo que todos os usuários pudessem ver as pessoas que visitaram as suas páginas de perfil, o que acabou tirando Lajello do anonimato.

De maneira quase instantânea, a página de perfil de Lajello começou a receber visitas de usuários curiosos por saber quem estava interessado neles – um tipo de contrafluxo inesperado. Luca Aiello então se fez uma pergunta: seria possível transformar um robô em um indivíduo popular e influente?

Para responder a essa pergunta, Lajello primeiro foi programado para não interagir com ninguém exceto por meio das visitas rotineiras às páginas de perfil. O objetivo, claro, era medir as consequências de um volume mínimo de interação social. A partir daí, eles começaram a registrar as respostas dos usuários na página de Lajello.

A cada rodada de visitas que o robô fazia ele ganhava diversas mensagens em seu mural; quando as visitas cessavam, a atividade também desaparecia.

Como as visitas eram muitas, no entanto, os números registrados foram impressionantes: até dezembro de 2011 (um ano e meio depois do começo do experimento, portanto), a página de Lajello somava 2.435 mensagens deixadas por mais de 1.200 pessoas em 66 mil visitas. Ninguém sabia que se tratava de um robô.

Para se ter ideia da expressividade desses números, Lajello já era o segundo perfil mais popular de toda a rede.

Mas, se a popularidade havia sido alcançada, faltava ainda transformar o robô em um indivíduo influente.

Para fazer isso, o time programou Lajello para recomendar amigos randomicamente – ou seja, sugerindo que um usuário conectado a ele se conectasse a outro usuário. Resultado: 52% das suas recomendações foram seguidas.

O caso de Lajello acabou sendo aberto e discutido em toda a Itália e, eventualmente, a aNobii tirou o seu perfil do ar. O experimento, no entanto, funcionara: um robô comprovadamente conseguiu se transformar em um indivíduo popular e formador de opinião.

[Algoritmos & Robôs: Os novos públicos-alvo das marcas] A matemática da formação de opinião

Toda essa volta dada até aqui foi para chegar a uma conclusão simples: se, no passado, nossa opinião era formada em decorrência de argumentos longos e exaustivamente aprofundados, hoje a nossa ansiedade e impaciência nos transformou em crentes ávidos pela conversão à crença mais popular que aparecer.

Em outras palavras, a vontade de chegar a alguma conclusão qualquer para poder tomar uma decisão rapidamente e começar a formar opiniões alheias é tamanha que a oportunidade costuma superar a necessidade.

Não é à toa que o consumismo cresce tanto em todo o mundo: convencer pessoas de que elas precisam desesperadamente de bens que elas sequer conheciam antes nunca foi tão fácil. O consumismo, aqui, deve ser visto não de maneira isolada e simplista, mas sim como parte de um traço social mais completo que inclui toda a maneira com que interpretamos o mundo à nossa volta.

Não se compra para ter; compra-se para mostrar.

Não devemos também subestimar o “mostrar”: hoje, esse tipo de exibicionismo não deve ser confundido com uma futilidade vazia. Exibir algo diferente, hoje, significa se inserir em um ciclo social em que formar opinião é mais importante do que ter uma opinião, por mais paradoxal que isso pareça.

O Modelo de Nódulos

Em 2008, um estudo sobre o modelo de formação de opinião foi publicado pelos pesquisadores Peter Klimek, Stefan Thurner (ambos da Universidade de Medicina de Viena) e Renaud Lambiotte (Universidade de Liege e Universidade Católica de Louvain) em parceria com o Instituto Santa Fé, nos EUA.

O modelo inteiro se baseou em questões binárias (como opiniões com base em sim vs. não, liberal vs. conservador etc.).

O resultado pode ser visto na imagem abaixo[1]:

Screen Shot 2016-07-22 at 5.31.44 PM

O modelo em si considera que cada nódulo é um ser humano com uma opinião formada.

Na figura “a”, o humano do nódulo central se relaciona duas pessoas que compartilham a mesma opinião que ele e com três que pensam o contrário. Em uma rede em que 3 pensam de uma forma e 3 pensam de outra, há uma tendência à estabilidade: mesmo com o passar do tempo, é maior a probabilidade de que ninguém convença ninguém a mudar de lado.

A figura “b”, no entanto, já é diferente. Nela, apenas duas pessoas pensam de uma forma enquanto quatro pensam de outra. Em uma situação assim, a maior probabilidade é que a pessoa no centro mude sua opinião para melhor se encaixar na sociedade em torno dela.

Essa força matemática que induz opiniões a serem mudadas (ou a permanecerem estáveis) é chamada pelos pesquisadores de Parâmetro de Laggard. De acordo com seus estudos, para que uma opinião seja formada é necessário que o parâmetro seja superior a 50% (como exemplificado na figura “b” em relação à “a”).

Tudo, no final das contas, é uma questão de quantidade.

Mas o que mudou do passado para o presente? Justamente a quantidade de conexões.

Se, digamos, em 1920, uma pessoa normal tinha no máximo algumas dezenas de “amigos”, hoje, um século depois, a média de “amigos” que cada um tem em uma rede social supera os 300.

E nem vale entrar aqui no conceito de amizade em si: na prática, são mais de 300 pessoas opinando sobre temas diversos – desconsiderando conteúdos produzidos por marcas para vender os seus produtos e serviços – que diariamente ocupam o campo visual de cada pessoa.

Esse alto volume de opiniões trafegando na velocidade do pensamento faz com que o modelo de nódulos ganhe um dinamismo como jamais visto antes, principalmente se considerarmos que cada nódulo conectado tem a sua própria rede de formação de opinião simultânea.

Mais conexões, portanto, representam mais opiniões. Em uma situação dessas, um bom formador de opinião é aquele que consegue expressar a sua opinião de maneira mais clara.

E, em uma era com tanta quantidade de opiniões, ser mais claro significa também ser mais “enxuto”, menos prolixo.

Traduzindo: o melhor formador de opinião é aquele que consegue falar de maneira mais simples e óbvia para a maior quantidade de pessoas, interferindo no Parâmetro de Laggard de cada um.

E é precisamente aqui que começam a entrar em cena os robôs.

[1] Fonte: http://phys.org/news/2008-04-physicists-opinions.html#jCp

[Algoritmos & Robôs: Os novos públicos-alvo das marcas] Da qualidade para a quantidade: os millennials e a morte de Tolstoi

Traçando um raciocínio lógico e simples: apenas um gênio consegue escrever algo tão profundo quanto Guerra e Paz – mas qualquer um consegue escrever um tweet.

Não que conteúdo sofisticado precise, necessariamente, de centenas de páginas para ser exposto: qualidade não é dependente de quantidade.

O ponto é outro.

Na sociedade atual, há tanto volume de conteúdo disponível em tantos formatos – destacando, obviamente, as redes sociais – que a predisposição em se aprofundar em um único e determinado tema pode ser considerada quase como uma anomalia.

Mas em que momento da humanidade isso aconteceu? Em que ponto exato a abundância de informação fez com que as pessoas optassem por “menos de mais” ao invés de “mais de menos”?

É difícil (ou impossível) apontar um momento no tempo em que as pessoas subitamente mudaram suas opiniões em relação à maneira com que consumiam conteúdo. Como toda mudança, esta foi fruto de um processo longo, resultado de pequenas revoluções de pensamento se acumulando desde que Gutenberg criou a prensa móvel. Mas há, claro, uma forma prática de se dividir os modelos mentais humanos para melhor entendê-los: observando os cortes de gerações que se criaram sob a influência de um determinado contexto sócio-político-cultural.

A geração nascida entre as décadas de 25 e 46, por exemplo, recebeu a alcunha de “geração silenciosa”, definida principalmente por rígidos padrões morais e por um estado de sofrimento constante devido às duas grandes guerras; os nascidos entre 46 e 64 foram chamados de “baby-boomers”, principalmente por conta da volta dos veteranos americanos da segunda guerra e do momento de prosperidade social (e gestacional) resultante; a geração X foi a próxima, nascida entre 65 e 79 e caracterizada pelo apreço ao trabalho duro e hierarquizado que garantia o crescimento profissional; e assim por diante.

Como todos esses termos foram cunhados com base na sociedade americana, é mais do que óbvio que muitas das suas características não se encaixassem perfeitamente na realidade brasileira (ou estrangeira de maneira geral) dos mesmos períodos.

Ainda assim, essas nomenclaturas se padronizaram como maneiras de interpretar comportamentos comuns. Além disso, o nível de globalização atual é tamanho que, ao menos para as novas gerações, a identificação cultural é muito maior do que qualquer diferença meramente geográfica.

Isso nos leva à geração mais estudada em todo o mundo – e que mais está protagonizando as mudanças dos nossos tempos: os millennials (nascidos entre 1980 e 1999).

Antes de prosseguir, portanto, é imperativo entender algumas de suas características mais marcantes[1]:

Pseudo-multitarefa

Até pouco tempo, acreditava-se que os millennials pensavam e agiam de maneira multitarefa. Esse mito caiu por terra com novos estudos que apontaram que, em realidade, eles tem uma capacidade tão forte de mudar subitamente a tarefa foco que há a “impressão de simultaneidade”. Ainda assim, trata-se de uma característica importantíssima: hoje, dedica-se menos tempo na execução de um maior número de tarefas.

Egocentrismo

O culto ao próprio ego é fator determinante no comportamento de millennials. Também até pouco tempo, as novas gerações eram tidas como mais altruístas e preocupadas com as grandes questões da humanidade. A preocupação em si até pode existir – mas não por puro altruísmo. O culto ao próprio ego é um fator determinante na personalidade dos millennials: 75% tem perfis ativos em redes sociais, 20% postam vídeos deles próprios constantemente, 38% tem de uma a seis tatuagens e 23% tem algum piercing em algum lugar diferente da orelha. O que isso diz? Que chamar a atenção do mundo para si é importante.

Informação instantânea

65% dos millennials se informam pela TV e 59% pela Internet. Isso até pode parecer um choque – mas há que se reinterpretar a divisão de meios.

Para esse público, a TV é algo ainda aquém de meia dúzia de canais abertos: ela é tão somente um hardware grande e cômodo por onde se pode escolher o conteúdo a ser consumido. A fonte do conteúdo? Para um número cada vez maior de pessoas, a própria Internet, via aplicativos como Netflix ou Youtube.

Hoje, a TV é a Internet.

Educação

Dentre todas as gerações passadas, os millennials serão certamente a mais “formalmente” educada. Nos EUA, o índice de formação escolar de segundo grau (high school) está em 72% – o patamar mais alto em duas décadas. Destes, 68% se matricularam em faculdades – outro número recorde.

Estudar é uma constante para este público principalmente por conta das possibilidades abertas na Era da Informação. Entra em cena o conceito de multitarefa novamente: 31% dos estudantes americanos do ensino superior estão fazendo outros cursos online em paralelo.

Empreendedorismo

Um público com grande acesso a educação e autoestima tão elevada dificilmente encontra satisfação como funcionário, seja no setor privado ou público. Ao contrário: pensa-se sempre que se sabe mais que os demais e que qualquer tomada de decisão própria será sempre mais acertada do que uma decisão de terceiros (quem quer que sejam).

O resultado: nunca se viu tantas novas empresas sendo abertas no mundo. Pesquisas, aliás, apontam que algo entre metade a dois terços dos millennials se dizem interessados em montar os seus próprios negócios.

E as próximas gerações?

A Geração Z – nascida depois do ano 2000 – tende a seguir as mesmas tendências dos millennials na medida em que a informação e a educação vão sendo mais e mais abundantes. Ou seja: deve-se esperar mais egocentrismo, mais empreendedorismo e mais pensamentos orientados à multitarefa.

O que isso tudo significa?

Entender millennials e a Geração Z vai além de estudar um perfil demográfico: significa entender os rumos da humanidade como um todo.

Acompanhe o seguinte raciocínio:

  • Com o passar do tempo, mais e mais conteúdos vão sendo disponibilizados pelos mais diversos meios, de livros tradicionais à já onipresente Internet.
  • Com tanto conteúdo disponível em tantos locais, as pessoas acabam elegendo o ambiente mais “cômodo” como fonte primária. E o ambiente mais cômodo, claro, é o que permitirá que elas se informem e propaguem a informação de maneira mais prática, ágil. Hoje, inclusive, 88% dos millennials dizem se informar sobre o mundo no Facebook[2].
  • No afã de buscar a atenção dos seus pares e de serem reconhecidos como formadores de opinião, os mesmos millennials que se informaram pelas redes sociais correm para propagar uma determinada notícia, deixando a checagem sobre a sua veracidade em um distante segundo plano. É mais importante ser o primeiro a falar do que falar algo que não seja necessariamente a verdade.

Esse raciocínio é fundamental por apontar para uma mudança no próprio modelo de formação de opinião: hoje, quantidade é mais importante do que qualidade.

Voltando ao começo deste capítulo: a era em que obras densas e extensas como Guerra e Paz, de Tolstoi, foram a base para toda uma mudança social, já se foi.

Tolstoi leva tempo demais para ser lido e, consequentemente, propagado.

Tolstoi saiu de moda.

Seu lugar foi ocupado por toda uma série de personalidades que, por meio de seus perfis sociais ou canais no Youtube, usam uma espécie de extremismo ideológico comprimido em pequenas pílulas de conteúdo – fáceis de engolir e mais fáceis ainda de compartilhar – para alcançar um público maior do que o escritor russo jamais sonhou que poderia existir.

Os segredos dessas personalidades?

  • Conexão: Usar as palavras certas, nos momentos exatos, para o perfil demográfico perfeito nos canais sociais ideais.
  • Quantidade: Criar uma frequência e um fluxo de publicação tão previsível que suas palavras ou vozes rapidamente se transformam em uma zona de conforto para seu público.

 

 

[1] Fonte: https://www.uschamberfoundation.org/reports/millennial-generation-research-review

[2] Fonte: https://www.americanpressinstitute.org/publications/reports/survey-research/millennials-social-media/