Kellogg Insight - O grande dilema no âmago da IA generativa
Skip to content
The Insightful Leader Live: Leadership in a Politically Charged Age | Register Now
Social Impact nov. 1, 2023

O grande dilema no âmago da IA generativa

Ferramentas como o ChatGPT podem aumentar a eficiência no nível individual, mas podem levar a grandes problemas sociais.

Machine taking ideas and standardizing them into blocks

Riley Mann

Based on the research of

Francisco Castro

Jian Gao

Sébastien Martin

Summary When individuals use generative AI to create content, they accept a trade-off between efficiency and “fidelity”—how faithfully the content matches what they would have produced themselves. At the societal level, this trade-off increases the homogeneity of what we collectively produce and allows biases present during training to become widespread. These effects will be compounded as AI-generated output trains the next generation of AI. To mitigate these issues, more artists, writers, and coders will need to interact with the AI so the output reflects the full range of human preferences.

Se você já incorpora ferramentas generativas de IA como o ChatGPT no seu fluxo de trabalho, provavelmente notou algo bastante interessante: embora a IA possa ajudar a escrever ou codificar ou ilustrar com mais eficiência, dá muito mais trabalho moldar o resultado final em algo que se pareça com o que você teria criado por si só.

Assim, a IA generativa faz com que os usuários se deparem com um grande dilema: para maximizar as vantagens em termos de eficiência, será necessário sacrificar parte da “fidelidade” do resultado final, ou seja, o quão fiel ou exato ela se adere ao seu estilo ou perspectiva.

“Se o objetivo for trabalhar mais rápido e aumentar a produtividade, então, de alguma forma, você deixa algo de fora por questão de velocidade", revela Sébastien Martin, professor assistente de economia gerencial e ciências da decisão na Kellogg.

Para as pessoas físicas, esse dilema pode ser irritante, mas pelo menos é prático. Aceite o resultado final gerado pela IA como "bom o suficiente" ou dedique mais tempo para personalizá-lo, talvez fornecendo mais informações antecipadamente, ajustando as instruções fornecidas ao sistema ou editando o resultado final posteriormente. Pessoas que possuem um estilo ou perspectiva especificamente distinto podem até mesmo decidir que não vale a pena personalizar a IA e abandonam a ferramenta por completo.

E o que acontece quando todo mundo começar a usar essas ferramentas? O dilema referente à velocidade-fidelidade tem consequências sociais mais amplas, tanto no curto prazo quanto ao longo do tempo?

Em uma nova pesquisa com seus colegas Francisco Castro e Jian Gao, da UCLA, Martin descobriu que o uso da IA para a criação de conteúdo aumenta a homogeneidade do que produzimos coletivamente, mesmo se tentarmos personalizar a produção. Além disso, o conteúdo gerado também herdará os preconceitos que a IA possa ter adquirido durante o processo de treinamento. Em outras palavras, os gostos e preconceitos de alguns funcionários de empresas de IA podem, em última análise, permear toda a sociedade. A pesquisa também descobriu que tais efeitos serão cada vez maiores à medida em que a produção gerada por IA for usada para treinar a próxima geração de IA.

Em compensação, o estudo sugere que a criação de ferramentas interativas de IA que incentivam a contribuição do usuário e facilitam as edições manuais pode evitar o pior desses resultados finais.

Oportunidades e riscos

Martin está bem familiarizado com o dilema da velocidade-fidelidade inerente à IA generativa. Afinal, ele é um francês que confia regularmente no Grammarly para melhorar o inglês escrito. “Economizo muito tempo!”, diz ele.

Ainda assim, Martin reconhece que o uso da ferramenta inevitavelmente molda os artigos que ele escreve. Não há nada particularmente nefasto nisso: há milhares de preferências idiossincráticas referentes à pontuação, escolha de palavras e estrutura de frases. “O que o Grammarly escreve não é exatamente igual ao que eu mesmo teria escrito", diz ele. “Existem diferentes maneiras de escrever a mesma coisa. Às vezes é apenas uma questão de gosto.

Porém em outras vezes, as diferenças são mais significativas. Quando descrevemos um evento como um "protesto" ou um "motim", ou elaboramos um artigo de notícias a partir de uma perspectiva de centro-direita ao invés de uma ótica de centro-esquerda, podemos moldar significativamente as impressões do público sobre o que aconteceu. E de forma mais ampla, o que acontece ao longo do tempo quando o gosto coletivo de todos é influenciado pelos mesmos algoritmos?

Para descobrir, Martin, Castro e Gao criaram um modelo matemático para simular as consequências de uma sociedade inteira que use as mesmas ferramentas de IA.

Em seu modelo, usuários com uma variedade de preferências diferentes usam a IA para trabalhar em uma determinada tarefa e podem optar por personalizar o quanto quiserem do resultado final. Essa personalização é representada como uma troca de informações sobre as preferências de cada usuário. Eles decidem o quanto vão empregar de esforço, dependendo da situação distinta: compartilhar mais informações significa que a IA fará um trabalho melhor na captura de preferências exclusivas, mas também exige mais esforço. Compartilhar menos informações é mais rápido e fácil, mas produz um resultado mais genérico. Mesmo a melhor IA não é capaz de adivinhar as verdadeiras preferências do usuário se esse compartilhar informações limitadas, mas pode dar um palpite instruído à medida que aprende a variação de preferências na população em geral durante o treinamento.

Os pesquisadores se perguntaram como os usuários decidiriam usar essas ferramentas e o que suas escolhas significariam em um conjunto de usuários?

Inspirado por algoritmos

O modelo confirmou que, para usuários com as preferências mais comuns ou intermediárias, a decisão ideal era aceitar o resultado final fornecido pela IA. Incentivariam-se os usuários com preferências menos comuns, no entanto, a compartilhar informações adicionais com a IA ou editar o resultado final para que ficasse fora do padrão. Enquanto isso, para usuários com preferências específicas e singulares, a IA não poupava tempo algum: era melhor que esses usuários criassem o próprio conteúdo.

O modelo também descobriu que o conteúdo gerado pela IA é sempre mais homogêneo do que o conteúdo gerado por usuários. Isso ocorre no nível individual, onde os benefícios da IA provêm da substituição de algumas de nossas próprias preferências ecléticas por outras mais populares. Isso também é verdade no nível populacional. A gama de preferências expressas no conteúdo gerado por IA foi menos variável do que a gama de preferências na população em geral - um efeito amplificado porque os usuários com preferências especiais simplesmente não usaram a ferramenta.

Além disso, à medida que o conteúdo gerado pela IA é usado para treinar a próxima geração de IA, a uniformidade aumenta ao longo do tempo, o que cria o que os pesquisadores chamam de "espiral da morte" da homogeneização. A nova IA é treinada em dados mais homogeneizados e, portanto, é mais provável que crie conteúdo ainda mais homogeneizado. Os usuários precisam de mais tempo e esforço para ajustar o resultado final da IA a fim de atender às suas preferências, e podem não estar dispostos a fazê-lo, o que leva a uma homogeneização ainda maior.

Outro problema com a IA – a imparcialidade - também ficará comprometida ao longo do tempo, sugere o modelo. Uma vez que a maioria da IA é criada e treinada por um número limitado de pessoas (uma abordagem típica é a RLHF, ou Aprendizagem por Reforço com Feedback Humano), é quase inevitável que um certo grau de imparcialidade surja nos resultados iniciais da IA. Os usuários podem corrigir essa imparcialidade com um certo esforço, mas se ela for pequena o suficiente, pode não valer a pena para muitos deles - ou eles podem nem perceber a diferença.

Este comportamento individual compreensível aumenta se todos agirmos de forma semelhante. Com o tempo, "qualquer imparcialidade de IA pode realmente se transformar em imparcialidade social", diz Martin.

Isso permite que as empresas de IA tenham uma enorme influência nos resultados sociais, mesmo que os usuários façam o máximo para limitá-la.

O futuro

Os pesquisadores sugerem haver maneiras de mitigar os problemas sociais associados à IA. Uma das ideias mais promissoras é fazer com que um maior número de pessoas interaja com ela e editem o trabalho entregue pela IA. A homogeneidade e a imparcialidade não serão desenfreadas, desde que o resultado final do modelo seja capaz de refletir as preferências reais dos usuários, o que significa que os usuários precisam realmente deixar as suas preferências bem claras.

Na prática, isso pode significar a IA ter de fazer perguntas aos usuários antes de gerar resultado específico, para ter uma noção melhor de seu estilo ou perspectiva singulares. Ou pode ser que tenham que fornecer uma variedade de resultados finais.

“Em vez de fornecer uma única versão, ela tenta fornecer duas versões muito contrastadas para permitir que se escolha entre elas", sugere Martin.

Ele reconhece que essas sugestões reduzirão a agilidade dos usuários no curto prazo, tornando a tecnologia um pouco menos útil. Porém, a longo prazo, essa estratégia "seria sem dúvida muito boa"- tanto para os usuários quanto para as ferramentas de IA.

Martin segue bastante otimista sobre o papel que a IA generativa possa desempenhar na criação de conteúdo, desde que continue a refletir toda a gama de preferências humanas. Na verdade, fazer com que a criação fique mais acessível a uma infinidade de novos escritores, artistas ou programadores pode até mesmo gerar benefícios.

“A IA também pode levar um número maior de pessoas a fazer algo que não tinham condições de fazer antes", diz ele, "o que poderia potencialmente acrescentar um pouco de diversidade ao mundo todo".

About the Writer

Jessica Love is editor in chief of Kellogg Insight.

Add Insight to your inbox.
More in Social Impact