La experiencia de Michael Geoffrey Asia revela un aspecto poco conocido del desarrollo de la inteligencia artificial. Durante un extenso periodo, este empleado en Kenia dedicó sus jornadas a analizar y clasificar contenido para adultos, una tarea crucial para entrenar algoritmos de IA. Además, su trabajo incluía simular interacciones íntimas como un chatbot, lo que resultó ser un desafío significativo para su bienestar mental.
La entrada de Michael en este campo fue impulsada por circunstancias personales difíciles. Después de culminar sus estudios en gestión de carga aérea, la escasez de oportunidades laborales a causa de la pandemia y el diagnóstico de cáncer linfático de su hijo lo llevaron a buscar fuentes de ingreso inmediatas. Para costear los tratamientos médicos, se endeudó en 17 mil dólares y, ante la falta de opciones, aceptó trabajos en empresas dedicadas al etiquetado de datos, poniendo en riesgo su salud mental en el proceso.
Diariamente, Michael pasaba ocho horas expuesto a material para adultos que debía detallar y clasificar. Esta labor era esencial para que los modelos de IA aprendieran a identificar y categorizar imágenes. Su trabajo no solo incluía contenido para adultos, sino también imágenes de violencia y abuso, necesarias para que los algoritmos pudieran detectar y bloquear tales escenas en plataformas digitales. Sin embargo, la compensación económica era escasa; la empresa Sama, que trabaja con grandes como Meta y OpenAI, pagaba entre 1,3 y 2 dólares por hora, según informes recientes.


