Social Impact nov 1, 2023
La gran disyuntiva que entraña la IA generativa
Las herramientas como ChatGPT pueden aumentar la eficiencia a nivel personal, pero provocar grandes problemas a nivel social.
Riley Mann
Si usted ha empezado a incorporar herramientas de IA generativa como ChatGPT en su dinámica de trabajo, probablemente habrá notado algo bien sorprendente: si bien la IA lo puede ayudar a redactar, codificar o ilustrar más eficientemente, lo cierto es que cuesta mucho trabajo convertir el resultado en algo que se parezca a lo que usted mismo habría creado.
Así pues, la IA generativa plantea una disyuntiva fundamental al usuario: para obtener los máximos beneficios de su eficiencia, es preciso sacrificar en cierta medida la "fidelidad" del resultado, es decir, aceptar la falta de lealtad y exactitud con la que reproduce el estilo o la perspectiva única del usuario.
"Si de lo que se trata es solamente de trabajar más rápido y aumentar la productividad, a algo tendremos que renunciar en aras de la velocidad", afirma Sébastien Martin, profesor adjunto de Economía de la Gestión y Ciencias de la Decisión en la Kellogg School of Management.
Para los usuarios, este dilema puede resultar molesto, pero por lo menos es sencillo: o aceptamos las respuestas de la IA como "suficientemente buenas" o dedicamos más tiempo a personalizarlas, para lo cual hay que proporcionar más información por adelantado, modificar las instrucciones o retocar las respuestas a posteriori. Los usuarios que poseen un estilo o una perspectiva particularmente originales pueden incluso decidir que la personalización cuesta tanto trabajo que no les vale la pena usar la herramienta y la abandonarán por completo.
Pero ¿qué pasa cuando todo el mundo empieza a utilizar estas herramientas? El sacrificio de la fidelidad a cambio de la velocidad ¿puede acaso tener consecuencias sociales más amplias, tanto a corto como a largo plazo?
En una nueva investigación con sus colegas Francisco Castro y Jian Gao, de la UCLA, Martin descubre que el uso de la IA para crear contenidos aumentará la homogeneidad de lo que producimos colectivamente, por mucho que intentemos personalizar el resultado. Es más, ese contenido heredará los sesgos que la IA haya podido adquirir durante su proceso de entrenamiento. En otras palabras, los gustos y los sesgos de unos cuantos empleados de una empresa de IA pueden acabar propagándose por toda la sociedad. Según la investigación, estos efectos se intensificarán a medida que los resultados generados por la IA se utilicen para entrenar a la próxima generación de IA.
Sin embargo, del estudio se desprende un elemento positivo: la creación de herramientas interactivas de IA que animen al usuario a realizar aportaciones y faciliten la edición manual puede evitar las peores consecuencias.
Oportunidades y riesgos
Martin conoce perfectamente el dilema entre la velocidad y la fidelidad que plantea la IA generativa. Después de todo, el francés es su idioma materno y utiliza Grammarly para mejorar su inglés escrito. "¡Ahorro mucho tiempo!", afirma.
Aun así, Martin reconoce que el uso de la herramienta influye inevitablemente en los artículos que escribe. No hay nada particularmente grave en ello: hay muchas preferencias idiosincrásicas en materia de puntuación, elección de palabras y estructura de frases. "Lo que escriba Grammarly no será exactamente lo que yo hubiera escrito", afirma. "Hay distintas maneras de escribir lo mismo. A veces es solo cuestión de gustos".
Pero otras veces, las diferencias son más significativas. El hecho de describir un acontecimiento como "protesta" o "disturbio", o de redactar un artículo desde una perspectiva de centroderecha o de centroizquierda, puede condicionar significativamente las impresiones del público sobre lo ocurrido. Y en términos más generales, ¿qué pasará a lo largo del tiempo cuando el gusto colectivo de todos esté bajo la influencia de los mismos algoritmos?
Para averiguarlo, Martin, Castro y Gao construyeron un modelo matemático destinado a simular las consecuencias de que toda una sociedad utilizara las mismas herramientas de IA.
En su modelo, los usuarios, que representan una diversa gama de preferencias, utilizan la IA para trabajar en una tarea y pueden personalizar el resultado todo lo que quieran. Esta personalización se representa como un intercambio de información sobre las preferencias de cada uno. Los usuarios deciden el grado de esfuerzo que van a realizar en función de su situación: si proporcionan más información, la IA podrá captar mejor sus preferencias, pero eso les supondrá más trabajo. Les es más rápido y fácil dar menos información, pero eso produce un resultado más genérico. Ni siquiera la mejor IA es capaz de adivinar las verdaderas preferencias de un usuario si este facilita poca información, pero puede intentarlo por aproximación a medida que aprende las distintas preferencias de la población en general durante su entrenamiento.
Cómo decidirían los usuarios utilizar estas herramientas, se preguntaban los investigadores, y qué consecuencias tendría la suma de sus decisiones.
Inspirados por algoritmos
El modelo confirmó que, para los usuarios con preferencias más comunes o moderadas, la decisión óptima era aceptar el producto de la IA tal cual. Los usuarios con preferencias menos comunes, sin embargo, se sentirían incentivados a proporcionar a la IA información adicional o a editar ellos mismos el producto para alejarlo del predeterminado. Para los usuarios con preferencias marginales, sin embargo, la IA no suponía un ahorro de tiempo en absoluto: les convenía más crear el contenido ellos mismos.
El modelo también concluyó que los contenidos generados por la IA son siempre más homogéneos que los generados por los usuarios. Esto es cierto a nivel individual, donde los beneficios de la IA proceden de la sustitución de una parte de nuestras preferencias eclécticas por otras más populares. Pero también es cierto a nivel poblacional. El abanico de preferencias expresadas en los contenidos generados por la IA era menos variable que el de la población, un efecto amplificado por el hecho de que los usuarios con gustos marginales simplemente no utilizaban la herramienta.
Además, la uniformidad se agrava con el tiempo, ya que los contenidos generados por la IA se utilizan después para formar a la siguiente generación de IA. Esto crea lo que los investigadores llaman una "espiral de la muerte" por homogeneización. La nueva IA se entrena con datos más homogeneizados y, por tanto, es más probable que cree contenidos homogeneizados. Los usuarios necesitan entonces más tiempo y esfuerzo para ajustar el resultado de la IA a sus preferencias, algo que pueden no estar dispuestos a hacer, lo que conduce a una homogeneización aún mayor.
Según el modelo, otro problema de la IA, el sesgo, también se agravará con el tiempo. Dado que la mayoría de las IA son creadas y entrenadas por un escaso número de personas (un sistema típico es el Aprendizaje por Refuerzo con Retroalimentación Humana, o RLHF, por las siglas en inglés de Reinforcement Learning with Human Feedback), es casi inevitable que se deslice algún sesgo en los resultados iniciales de la IA. Los usuarios pueden corregir este sesgo con cierto esfuerzo, pero si el sesgo es lo suficientemente pequeño, puede que a muchos no les merezca la pena o puede que ni siquiera lo noten.
Pero este comprensible comportamiento individual se agrava si todos actuamos de forma similar. Con el tiempo, "cualquier sesgo de la IA puede convertirse en un sesgo social", afirma Martin.
Esto permite a las empresas de IA tener una enorme influencia en los resultados a nivel social, incluso si los usuarios hacen todo lo posible por limitarla.
Un camino por seguir
Según los investigadores, hay maneras de mitigar los problemas sociales relacionados con la IA. Una de las más prometedoras es conseguir que más personas interactúen con ella y modifiquen ellas mismas sus resultados. La homogeneidad y los sesgos no se propagarán si los resultados del modelo reflejan las verdaderas preferencias de los usuarios, lo que significa que estos deben dejarlas bien claras.
En la práctica, esto se podría conseguir si, antes de proceder a generar un resultado, la IA formulara al usuario una serie de preguntas para hacerse una mejor idea de su estilo o perspectiva. O si le ofreciera múltiples resultados.
"En lugar de darle una sola versión, que procure darle dos muy contrapuestas para que pueda elegir entre ellas", sugiere Martin.
Martin reconoce que estas sugerencias disminuirán la velocidad de los usuarios a corto plazo, con lo que la tecnología resultará algo menos útil. Pero a largo plazo, esta estrategia "sería sin duda algo muy bueno", tanto para los usuarios como para las herramientas de IA.
Martin sigue siendo muy optimista en cuanto al papel que la IA generativa puede desempeñar en la creación de contenidos, siempre y cuando siga reflejando toda la gama de preferencias humanas. Sin duda, hacer que la creación sea más accesible a una plétora de nuevos escritores, artistas y programadores podría incluso reportar beneficios.
"La IA también puede atraer a más personas a algo que antes no podían hacer, —dice— lo que potencialmente podría añadir un poco más de diversidad".
Jessica Love is editor in chief of Kellogg Insight.
Castro, Francisco, Jian Gao, and Sébastien Martin. 2023. "Human–AI Interactions and Societal Pitfalls." Available at https://doi.org/10.48550/arXiv.2309.10448