Bolhas de polarização. Filtros de opinião. Câmaras de eco. Seja qual for o nome que se dê aos silos ideológicos promovidos pelas mídias sociais, todos, desde o Quartz até o The Guardian, implicam estes silos no clima político intensamente dividido nos Estados Unidos. 

Os algoritmos implementados pelos sites de mídias sociais para fornecer conteúdo personalizado claramente desempenha um papel importante em garantir que os usuários encontrem apenas informações que correspondam às suas crenças. Porém, qual é o papel do próprio comportamento do usuário na formação de câmaras de eco on-line? Afinal, um algoritmo pode garantir que você veja posts com os quais concorda, mas a decisão de curtir um comentário da tia Miriam ou compartilhar um vídeo do primo Beto é toda sua.

Talvez 12 milhões de usuários de mídias sociais possam nos ajudar a encontrar a resposta.

Com a ajuda de um enorme conjunto de dados, o professor de gestão e organizações da Kellogg, Brian Uzzi, e uma equipe de colegas na Itália, recentemente se propuseram a explorar o comportamento humano dentro de ambientes on-line politicamente polarizados. Ele e seus colegas descobriram que os usuários raramente permanecem neutros e a grande maioria dos usuários é atraída pelo conteúdo polarizado de forma notavelmente rápida.

Uzzi espera que essas descobertas possam nos ajudar a começar a entender e desmantelar o efeito da câmara de eco. 

"As mídias sociais têm um tremendo efeito nas mentes das massas e uma enorme responsabilidade em ajudar a nos instruir", diz ele. “As mídias sociais transformam uma notícia falsa em real e ajudaram diretamente a nos levar a uma era de falta de verdades e ‘fatos alternativos’”.

Ciência versus conspiração

Uzzi uniu-se a colegas afiliados à MIT School for Advanced Studies Lucca (Alessandro Bessi, Fabiana Zollo, Michela Del Vicario, Michelangelo Puliga, Antonio Scala, Guido Caldarelli e Walter Quattrociocchi) para analisar o comportamento de 12 milhões de usuários do Facebook e do YouTube.

Mais especificamente, a equipe de pesquisa olhou para as "curtidas", compartilhamentos e comentários obtidos por determinados vídeos no Youtube, mas também incorporados em 413 diferentes páginas do Facebook.

Primeiro, os pesquisadores dividiram os vídeos em duas categorias, fazendo a análise das páginas do Facebook nas quais os vídeos haviam sido incorporados.

Os vídeos que apareceram em páginas do Facebook como Illuminati Mind Control, Exposing Satanic World Government e Doctors Are Dangerous—páginas que apresentam informações polêmicas sem evidências comprobatórias—foram colocados na categoria "Conspiração". Os vídeos que apareciam em páginas como Scientific American Magazine, National Science Foundation ou NASA—páginas que apresentam conhecimento científico e pensamento racional—foram colocados na categoria "Ciência".

Os pesquisadores compararam os padrões de consumo desses vídeos no Facebook e no YouTube. Examinaram os posts e suas respectivas interações entre janeiro de 2010 e dezembro de 2014. Isso permitiu que eles rastreassem—usando apenas informações disponíveis publicamente—a maneira pela qual as interações de um determinado usuário com os dois tipos de conteúdo mudaram ao longo do tempo.

Em ambas as plataformas, alguns usuários só interagiram com o conteúdo Conspiração e alguns apenas com o conteúdo Ciência. Enquanto isso, outros usuários começaram a interagir com os conteúdos Conspiração e Ciência, mas rapidamente passaram a interagir apenas com um ou outro.

Independentemente de como começaram, quase todos os usuários se tornaram altamente polarizados. Os pesquisadores determinaram que isso acontecia quando mais de 95% dos seus comentários, compartilhamentos e "curtidas" eram de uma única categoria de conteúdo. Na verdade, 93,6% dos usuários do Facebook e 87,8% dos espectadores do YouTube se enquadram nesta categoria.

Velocidade surpreendente

No entanto, o que Uzzi achou mais surpreendente foi a rapidez com que os usuários ficaram polarizados.

Para os usuários que começaram a interagir com os vídeos de Conspiração e de Ciência, "achamos que eles continuariam buscando diversos conteúdos. No entanto, descobriu-se que eles se tornaram rapidamente muito seletivos", diz Uzzi. Com que rapidez? Aproximadamente no momento em que fizeram seu quinquagésimo comentário, compartilhamento ou "curtida".

"Mesmo as pessoas que começam com dois pontos de vista ao mesmo tempo podem entrar rapidamente em uma câmara de eco", diz ele.

Isso significa, ele explica, que as mudanças nos conteúdos de mídia que as pessoas consomem podem afetar as crenças dos usuários com surpreendente rapidez. E as plataformas como Facebook e YouTube estão constantemente alterando o que os usuários veem com base no que esses usuários clicaram no passado. "Os horizontes de tempo podem ser muito rápidos", diz ele. “Ajustar o conteúdo de uma determinada maneira pode levar as pessoas a fazer julgamentos precipitados e, depois, manter esses julgamentos, mesmo quando há informações alternativas externas".

Uma vez dentro de uma câmara de eco, os usuários tendem a não sair mais. Isso acontece em todas as plataformas, tanto para os usuários polarizados a favor da Ciência quanto os a favor da Conspiração. "Em termos de informações e crenças, viramos cachorros velhos muito rapidamente e, quando somos cachorros velhos, não aprendemos novos truques", diz Uzzi.

Além disso, Uzzi diz que outras pesquisas mostraram que, uma vez polarizados, os usuários tendem a se tornar ainda mais polarizados. “Dentro de uma câmara de eco, o que faz com que o pensamento das pessoas evolua é o ponto de vista ainda mais extremo", diz ele. "Então você fica ainda mais à esquerda ou à direita, porque é a voz mais alta que leva as pessoas a uma determinada direção".

O descrédito não funciona

Então as câmaras de eco ideológicas existem mesmo e as pessoas tendem a entrar nelas rapidamente e não sair mais. Como poderiam ser persuadidas a sair? Especialmente as pessoas que atualmente estão nas câmaras de eco e que perpetuam informações falsas e enganosas?

A resposta parece simples: desacreditar as informações falsas. Porém, os usuários de mídias sociais polarizados não parecem particularmente interessados em se envolver com conteúdo que possa contradizer suas crenças. Quando interagem com mensagens de descrédito, pode ser um tiro pela culatra, fazendo com que se agarrem às suas posições de forma ainda mais feroz.

Por exemplo, um estudo anterior realizado por alguns dos mesmos pesquisadores italianos examinou o comportamento de comentários de mais de 9 milhões de usuários do Facebook que estavam polarizados a favor do pensamento do tipo conspiração, e descobriram que apenas cerca de 100 mil deles haviam comentado em um post de descrédito. E os que interagiram com o conteúdo de descrédito tenderam a reagir, aumentando sua atividade nas páginas do Facebook relacionadas à conspiração.

Esforços para desmantelar as câmaras de eco

Recentemente foram realizadas várias tentativas para ajudar os usuários de mídias sociais a escapar de suas câmaras de eco. Elas incluem o FlipFeed, um plug-in que permite aos usuários substituir seus próprios feeds do Twitter por feeds aleatórios e ideologicamente diferentes de outras pessoas e o Escape Your Bubble, um plug-in que insere visões políticas opostas nos feeds de notícias dos usuários do Facebook.

Embora nada tenha sido determinado em relação à eficácia dessas ferramentas, é curioso imaginar que no passado as pessoas esperavam que a Internet fosse desencorajar, em vez de incentivar, as câmaras de eco.

“Quando a Internet surgiu, muitos observadores e cientistas pensaram que toda essa nova informação, que de repente estava a apenas um clique, iria tornar todos mais inteligentes", diz Uzzi. "A ideia era que, uma vez que as pessoas não precisariam ir a uma biblioteca fuçar em revistas velhas para obter informações, elas explorariam a validade dos pontos de vista de outras pessoas. Fariam a validação dos fatos, ouviriam ambos os lados da discussão, e assim chegariam mais rapidamente à verdade sobre os fatos".

Mas isso permanece, como Uzzi chama, uma "grande esperança visionária".