

La invisible y precaria mano de obra detrás de la IA generativa
Para que la inteligencia artificial generativa realice un informe de autopsia, trabajadores precarios deben clasificar e identificar miles de imágenes de crímenes. De Kenia a Colombia, los anotadores de datos son cada vez más numerosos y luchan para mejorar sus condiciones de trabajo.
"Tienes que pasarte el día mirando cadáveres" y "hacer zoom en las heridas" para recortarlas y ayudar a la IA a identificar estas imágenes, "sin ningún tipo de apoyo psicológico", explica a AFP Ephantus Kanyugi.
Este keniano de 30 años clasifica y etiqueta imágenes para entrenar algoritmos desde 2018. Es también vicepresidente de la Data Labelers Association, con sede en Nairobi y que cuenta con unos 800 miembros.
La organización dará a conocer en octubre un código de conducta destinado a las plataformas de anotación de datos para mejorar las condiciones de los trabajadores, ante la ausencia de una legislación que regule esta actividad en Kenia.
"Somos como fantasmas, las personas no saben que existimos, que somos los que ayudamos con el avance tecnológico", lamenta desde el otro lado del planeta Oskarina Fuentes.
Esta venezolana de 35 años, instalada en la ciudad colombiana de Medellín, trabaja para cinco plataformas de anotación de datos. Cobra entre 5 y 25 centavos de dólar por labor.
Gracias a este trabajo, a menudo invisible, los coches autónomos reconocen peatones o árboles, los robots conversacionales como ChatGPT se expresan de forma natural o los sistemas de moderación filtran contenidos violentos o pornográficos.
Y es un mercado en auge: en 2024 representó 3.770 millones de dólares, que deberían crecer hasta los 17.100 millones de aquí al 2030, según el gabinete Grand View Research.
- "Esclavitud moderna" -
La IA necesitará verificación humana "mientras siga basándose en el aprendizaje automático", dice el sociólogo Antonio Casilli, autor de un libro de investigación sobre el "trabajo del clic".
Se necesitan personas tanto en la fase inicial para preparar los datos que alimentan los modelos, como en la etapa final para evaluar la pertinencia de las respuestas.
Los gigantes tecnológicos subcontratan este trabajo a innumerables empresas.
Una de las más importantes es la estadounidense Scale AI, en la que Meta invirtió recientemente más de 14.000 millones de dólares. Entre sus clientes figuran OpenAI, Microsoft y el Departamento de Defensa de Estados Unidos.
Los anotadores de datos suelen tener entre 18 y 30 años y reciben una remuneración muy baja, pese a tener estudios de alto nivel, señala Casilli, profesor del Instituto Politécnico de París.
Provienen en su mayoría de países con pocos recursos, aunque esta actividad está desarrollándose también en Estados Unidos y Europa, con sueldos más elevados.
A medida que suben de gama, los modelos detrás de ChatGPT de OpenAI o Claude de Anthropic necesitan especializarse en materias complejas, como matemáticas, química o idiomas poco comunes.
La web de Outlier, filial de Scale AI, propone múltiples ofertas de trabajo para expertos en biología, lengua malaya o programación en español, con remuneraciones de entre 30 y 50 dólares la hora.
En Kenia, en cambio, Remotasks, otra filial de Scale AI, paga a sus anotadores de datos alrededor de 0,01 dólares por una tarea que puede durar varias horas, según Ephantus Kanyugi.
Es "la esclavitud moderna", dice.
"La gente desarrolla problemas de visión, de espalda, sufre ansiedad y depresión porque trabaja 20 horas al día o seis días a la semana, por un salario miserable, y es posible que ni siquiera le paguen", advierte.
- "¿Cómo suicidarse?" -
Scale AI es objeto de varias denuncias en Estados Unidos. Los empleados la acusan de trabajo no remunerado, de declararlos como autónomos y de exponerlos a contenidos traumáticos sin medidas de prevención suficientes, según documentos legales consultados por AFP.
Los demandantes afirman, por ejemplo, que han tenido que abordar con una inteligencia artificial cuestiones del tipo "¿cómo suicidarse?", "¿cómo envenenar a alguien?" o "¿cómo matar a alguien?".
La empresa se ha negado a comentar las demandas en curso, pero reconoce que algunos proyectos destinados a crear modelos de IA seguros pueden incluir contenidos sensibles.
Scale AI asegura que siempre avisa con antelación a los trabajadores y que estos pueden interrumpir una tarea en cualquier momento. También menciona programas y recursos dedicados a la salud mental y una línea de atención telefónica anónima.
Según la compañía, ofrece una escala de salarios transparente, con tarifas iguales o superiores al sueldo mínimo vigente en los lugares donde opera.
Estos trabajadores de la IA pueden encontrarse sin empleo, ni paga, de la noche a la mañana.
Oskarina Fuentes acusa a una de las plataformas que la empleaba de no pagarle unos 900 dólares, o sea tres meses de trabajo, después de una actualización de su sistema de pago.
"Perdí mi tiempo, mi esfuerzo, mi sueño", afirma.
No puede nombrar cuál era su empresa porque firmó un acuerdo de confidencialidad, una práctica frecuente en esta industria que condena al silencio a la mayoría de trabajadores del clic.
En Kenia, la Data Labelers Association contempla llevar ante la justicia a Remotasks, a raíz de las acusaciones de varios trabajadores de que en marzo de 2024 interrumpió el acceso a su plataforma sin pagarles el dinero que les debía.
La empresa matriz Scale AI admite una reducción de su actividad en Kenia, y afirma haber cerrado cuentas de anotadores por infringir sus normas internas. Pero asegura que se remuneraron las actividades realizadas.
Microsoft y Meta rechazaron contestar a las preguntas de AFP sobre sus relaciones con Scale AI. El Pentágono no respondió.
En el caso de Anthropic colabora con SurgeAI, una empresa emergente de anotación de datos también demandada en Estados Unidos.
El gigante de la IA afirma que exige a sus subcontratistas que sigan las normas relativas al bienestar de los trabajadores a cargo de contenidos sensibles y que establezcan una tarifa equivalente o superior a 16 dólares por hora.
OpenAI asegura que cuenta con una normativa estricta para sus colaboradores en materia de seguridad en el trabajo, remuneración equitativa, no discriminación y respeto de los derechos de los empleados. Si no se respeta este código, el creador de ChatGPT lo considera un incumplimiento de contrato y toma las medidas oportunas, afirma.
- "Salarios justos" -
Sin embargo, los trabajadores del clic, que en su mayoría trabajan por cuenta propia o con contratos de corta duración, a menudo carecen de protección social, recuerda el sociólogo Antonio Casilli, quien los califica de "subproletariado digital".
En Kenia, el futuro código de conducta de la Data Labelers Association, al que ha tenido acceso AFP, pretende establecer un contrato de trabajo con una "remuneración justa", garantizar la libertad de asociación, el derecho a descansos y a un apoyo psicológico en caso de exposición a contenidos nocivos.
Pero estas reivindicaciones pueden convertirse en un tira y afloja con las empresas.
En Estados Unidos, cerca de 250 personas que trabajaban para GlobalLogic, un subcontratista que entrena la IA Gemini de Google, fueron despedidas en septiembre después de que varios empleados denunciaran las diferencias salariales y trataran de obtener mejores condiciones.
"Quieren anotadores de datos sumisos", denuncia Andrew Lauzon, de 31 años, que trabajaba para GlobalLogic desde marzo de 2024 y fue despedido el 12 de septiembre.
Miembro del sindicato Alphabet Workers Union, este oriundo de Boston reclamaba junto con otros compañeros "salarios justos", "días libres" y "una cobertura médica asequible".
GlobalLogic, contactado por AFP, no quiso hacer ningún comentario.
Un portavoz de Google señaló que "como empresa, GlobalLogic es responsable de las condiciones laborales de sus empleados".
El grupo afirma que exige a sus subcontratistas, adherirse a una normativa, un trato justo y equitativo para sus trabajadores. Y asegura que realiza auditorías periódicas para verificarlo.
"Los gigantes tecnológicos no pueden construir el futuro sobre una mano de obra desechable", insiste Christy Hoffman, secretaria general de la federación sindical internacional UNI Global Union, que publicó a principios de octubre un estudio sobre los trabajadores bajo la sombra de la IA.
"Es hora de que los titanes de Silicon Valley sean responsables de las condiciones laborales en su cadena de subcontratación", añade.
El trabajo del clic sufre sobre todo de una falta de marco jurídico.
En Europa, pese a la aprobación de una amplia normativa sobre inteligencia artificial, siguen existiendo "lagunas", afirma la eurodiputada francesa de izquierda radical Leïla Chaibi.
"No hay ninguna mención a los trabajadores del clic en el reglamento sobre la IA", señala.
Y todo ello teniendo en cuenta que millones de personas realizan este trabajo, esencial para el desarrollo de esta nueva tecnología.
"Si eres carpintero o fontanero, hay sindicatos y un salario mínimo", recuerda Nacho Barros, de 54 años y residente cerca de Valencia, en España, que comenzó a anotar datos durante la pandemia.
"Este trabajo también debería ser reconocido por todos los países como un empleo en toda regla".
F.Coineagan --NG