Kellogg Insight - Los trabajadores autónomos están siendo evaluados cada vez más por oscuros algoritmos. Esto los está…
Skip to content
Webinar: AI and the Global Economy | Register Now
Data Analytics Organizations ago 2, 2021

Los trabajadores autónomos están siendo evaluados cada vez más por oscuros algoritmos. Esto los está volviendo paranoicos.

Estos sistemas crean una “jaula invisible” alrededor de los autónomos.

Gig worker weighed down by star ratings

Michael Meier

Based on the research of

Hatim Rahman

En algún rincón de la Internet, es probable que ya hayamos sido evaluados.

Estas evaluaciones ayudan a todo tipo de empresas a tomar decisiones, como, por ejemplo, qué riesgos tomar y cómo mejorar sus operaciones. Pero ¿cómo afectan a los evaluados? Una nueva investigación de Hatim Rahman, de la Kellogg School of Management, demuestra que estos algoritmos, a pesar de ser muy poco transparentes —de hecho, en gran medida por eso precisamente— están condicionando el comportamiento de las personas de forma insospechada.

Rahman, profesor adjunto de Gestión y Organizaciones, investigó el efecto que los algoritmos tenían en las personas en una plataforma de trabajo en línea para autónomos. "Se habla mucho del futuro del trabajo y del aspecto que tendrá", dice Rahman. "Estas plataformas forman parte de la nueva frontera".

Como tantos otros sitios que prometen conectar a los trabajadores por cuenta propia con clientes dispuestos a pagar por sus servicios (entre ellos Upwork, TopCoder y TaskRabbit), el que examinó Rahman empleaba un complejo algoritmo para calificar a los trabajadores autónomos con un puntaje, en función del cual los clientes potenciales podían clasificar y seleccionar a los candidatos.

Para investigar el efecto que este oscuro sistema de evaluación estaba teniendo en los autónomos, Rahman se inscribió en la plataforma (a la que alude con el falso nombre de "TalentFinder") y se entrevistó con ellos y con los clientes que los contrataban. También analizó las comunicaciones por escrito de TalentFinder y sus comentarios en sus foros de debate para autónomos.

Todos los trabajadores con los que habló se sentían paranoicos ante la posibilidad de que su puntaje disminuyera de forma repentina e inexplicable. Su manera de reaccionar ante este temor dependía menos de la solidez de su valoración que de si habían experimentado anteriormente disminuciones de puntaje y, sobre todo, de su grado de dependencia de la plataforma como fuente de ingresos.

Los estudiosos, explica Rahman, siempre han dicho que las evaluaciones realizadas por los empleadores tienen el efecto de encerrar a los trabajadores en una estrecha "jaula de hierro", porque permiten a los empleadores restringir el comportamiento de los trabajadores y fijar los criterios del éxito. El efecto de las evaluaciones realizadas por algoritmos es muy distinto y puede ser devastador.

"Las evaluaciones oscuras realizadas por terceros crean una ‘jaula invisible’ para los trabajadores —escribe Rahman—, porque estos las experimentan como un instrumento de control, pero con la desventaja de que no les es posible descifrar los criterios que determinan el éxito, ni aprender de ellos".

Y por supuesto, como señala Rahman, muchos de nosotros no solo estamos viviendo en alguna versión de esta jaula invisible, sino que también estamos contribuyendo a moldear un poco sus barrotes. Cada vez que calificamos una compra en Amazon o a un conductor de Lyft, eso puede tener consecuencias para el sustento de otros.

"Los usuarios de estas plataformas por lo general no se dan cuenta de que están influyendo en estos sistemas y sus algoritmos", afirma. “Par ellos no es más que una relación puramente transaccional".

Hacer un misterio de los criterios de evaluación

"TalentFinder" es una de las mayores plataformas de su índole. En 2015, había registrados en ella más de 12 millones de trabajadores autónomos, junto con 5 millones de clientes en más de 100 países. Los clientes podían elegir entre una amplia gama de autónomos, desde asistentes hasta mercadólogos e ingenieros de software.

En 2013, cuando Rahman se inscribió en TalentFinder para iniciar su investigación, a los autónomos se los clasificaba con un sistema transparente de puntajes por proyecto y puntajes generales. Al finalizar un proyecto, los clientes calificaban a sus autónomos en una escala del uno al cinco basada en una serie de atributos, tales como "destrezas", "calidad del trabajo" y "cumplimiento del calendario". La suma de estos puntajes arrojaba un puntaje global para el proyecto, y la combinación de los puntajes de los proyectos (ponderados en función del valor en dólares de cada uno de ellos) se traducía en una calificación global de entre una y cinco estrellas que se incorporaba al perfil del autónomo.

Pese a lo sencillo que era, ese sistema de evaluación tenía un problema para TalentFinder: las calificaciones de los autónomos eran demasiado altas en general y carecían de la diferenciación necesaria para ser útiles a los clientes. Llegó un momento en el que más del 90 por ciento de los autónomos tenían al menos cuatro de las cinco estrellas y el 80 por ciento, una calificación casi perfecta.

La solución: un algoritmo. A partir de 2015 se empezó a calificar a los autónomos en una escala del 1 al 100 basada en criterios intencionadamente ocultos.

"No vamos a revelar cómo se calcula exactamente el puntaje", escribió TalentFinder en una entrada de blog pública tres meses después de la adopción del algoritmo. "Si lo hiciéramos, sería más fácil que algunos usuarios lo aumentaran artificialmente". Tras la implantación del nuevo algoritmo, apenas un 5% de los autónomos alcanzaban un puntaje de 90 o superior.

Para estudiar los efectos del nuevo sistema de evaluación en los autónomos, Rahman recopiló datos entre 2015 y 2018 de tres fuentes: 80 entrevistas realizadas a autónomos y 18 a clientes; comunicaciones escritas, entre ellas más de dos mil mensajes publicados en el foro de la comunidad de TalentFinder acerca del algoritmo y todo lo publicado por TalentFinder sobre el tema; y sus propias observaciones como cliente registrado.

Paranoia generalizada

Cuando Rahman analizó sus entrevistas y la información escrita, le llamó la atención la uniformidad de las quejas que escuchó. Todos los autónomos con los que habló sufrían la paranoia de la posible caída repentina de su puntaje y la continua frustración de no poder sacar conclusiones de las fluctuaciones y mejorar basándose en ellas.

"Lo que más me sorprendió fue que los autónomos con los máximos puntajes y de más experiencia con la plataforma no necesariamente tuvieran una idea más clara de cómo funcionaba el algoritmo", dice. "Por lo general, las personas que obtienen buenos resultados en un sistema han logrado descifrar en alguna medida su funcionamiento. Pero en este caso, incluso los autónomos cuyos puntajes no habían sufrido cambios vivían en un permanente estado de nervios".

Rahman observó que la paranoia y la frustración suscitaban dos reacciones distintas. Una de ellas era lo que él denomina "reactividad experimental". Algunos autónomos, en un intento de aumentar su puntaje por ensayo y error, aceptaban únicamente proyectos con contratos de corta duración, por ejemplo, o pedían expresamente a los clientes algo de retroalimentación.

La otra reacción consistía en intentar proteger los puntajes a través de lo que Rahman llama "actividad restringida". Estos autónomos trataban por diversos medios de limitar su exposición al algoritmo de evaluación. A veces pedían a los clientes que conocían a través de TalentFinder que salieran de la plataforma para mantener la comunicación y realizar los pagos con el fin de que no cambiara su calificación. Otros no hacían nada, con la esperanza de que esto la mantuviera intacta.

Rahman aisló dos factores principales que determinaban qué autónomos experimentaban y cuáles se retiraban de la plataforma o simplemente no hacían nada: el grado de su dependencia de la plataforma como fuente de ingresos y el hecho de haber experimentado una disminución de su puntaje o no.

Esto variaba en función de si el autónomo tenía un puntaje alto o bajo.

Los autónomos que tenían un puntaje alto y que dependían enormemente de la plataforma elegían su táctica en función de que su puntaje hubiese disminuido recientemente o no. Aquellos cuyo puntaje había disminuido experimentaban con tácticas para aumentarlo; si no había disminuido, restringían su actividad en la plataforma para intentar protegerlo. Los que tenían un puntaje alto y dependían poco de la plataforma limitaban su tiempo en TalentFinder, independientemente de que su puntaje hubiera disminuido o no.

Para los autónomos con puntajes bajos, el factor decisivo a la hora de elegir una estrategia era su dependencia de la plataforma. Si dependían mucho de ella, experimentaban incluso si continuaba fluctuando su puntaje. Si no era su mayor fuente de ingresos, restringían gradualmente su actividad en ella.

Rahman explica que si la situación de los trabajadores parece ser más precaria en estas plataformas que en los entornos laborales convencionales es… porque de hecho lo es. Mientras que las evaluaciones realizadas por los empleadores lo que persiguen normalmente es ayudar al empleado a mejorar, las que produce un algoritmo en un sitio como TalentFinder lo que persiguen principalmente es ayudar a la plataforma a automatizar la tarea de seleccionar a los "mejores" trabajadores de un numeroso grupo y así satisfacer a sus clientes.

"Lo importante para las plataformas es optimizar su dinámica general; su objetivo principal no es ayudar a los trabajadores a mejorar", dice Rahman. "Para las personas que viven en contacto con la plataforma a diario, sobre todo cuando dependen de ella para encontrar trabajo, esto puede ser de lo más frustrante y difícil".

Viviendo en la jaula… y moldeándola

Desde que realizó esta investigación, Rahman dice que es cada vez más consciente de las distintas jaulas invisibles en las que la mayoría de nosotros vivimos. Señala, por ejemplo, recientes informes en los que se explica cómo todo lo que usamos, desde nuestros televisoresy aspiradorashasta las aplicaciones de los teléfonos inteligentes para las recetas médicas y el seguro del automóvil, está sirviendo para recopilar nuestros datos y usarlos para adiestrar algoritmos patentados de una manera nada evidente para nosotros.

"La metáfora de la jaula invisible creo que es cada vez más pertinente ahora que estamos en un sistema en el que todo lo que hacemos, lo que decimos y la forma en la que interactuamos está alimentando algoritmos de cuya existencia no necesariamente tenemos conocimiento", afirma.

Señala que algunas personas se pueden permitir el lujo de retirarse de estas plataformas y otras no: todo se reduce a la medida en que dependan de ellas. Un fértil campo de investigación futura, dice, podría ser el examen de la correlación entre características tales como la raza, el género y los ingresos y la dependencia con respecto a las plataformas y sus evaluaciones algorítmicas. Por ejemplo, es importante averiguar si las personas de determinados grupos raciales son más susceptibles de ser "evaluadas" (y potencialmente incluidas en listas negras) por algoritmos a la hora de alquilar un apartamento, obtener una tarjeta de crédito o contratar un seguro médico.

"Saco a la luz esta metáfora de la jaula invisible para concientizar sobre este fenómeno de una forma que espero ayude a comprender cómo nos afecta", dice Rahman". “Claro que, incluso si cobramos conciencia de ello, es difícil saber qué hacer, dada la complejidad de los sistemas y la velocidad con la que cambian sus algoritmos".

Hay leyes que están empezando a ejercer cierta supervisión sobre lo que sigue siendo un sector escasamente regulado. La Ley de Privacidad del Consumidor de California de 2020, la más fuerte de su clase en toda la nación, establece el derecho del usuario en línea a saber que sus datos personales se están recopilando, a borrarlos y a optar por prohibir su recopilación. En 2018, la Unión Europea promulgó una legislación aún más enérgica con el mismo fin. "Es una señal alentadora —dice Rahman—, pero la reglamentación por sí sola está lejos de ser una panacea".

Featured Faculty

Associate Professor of Management and Organizations

About the Writer

Katie Gilbert is a freelance writer in Philadelphia.

About the Research

Rahman, Hatim. 2021. “The Invisible Cage: Workers’ Reactivity to Opaque Algorithmic Evaluations.” Administrative Science Quarterly.

Read the original

Add Insight to your inbox.
This website uses cookies and similar technologies to analyze and optimize site usage. By continuing to use our websites, you consent to this. For more information, please read our Privacy Statement.
More in Business Insights Data Analytics