Por: UntoldMag. 13/04/2025
Traducido por: Gabriela García Calderón Orbe
Los trabajadores del sector de los datos tienen un punto de vista singular que puede desempeñar un papel crucial en la identificación precoz de problemas éticos.
Este artículo de Milagros Miceli se publicó originalmente en UntoldMag el 18 de abril de 2024. Global Voices reproduce esta versión editada como parte de un acuerdo para compartir contenido.
Conocí a Fatma en junio de 2019 en Sofía, Bulgaria. Cuatro años antes, a los 17 años, se vio obligada a dejar su casa en Alepo con toda su familia, hasta que llegaron a Finlandia vía Sofía.
Los contrabandistas le habían prometido una casa y un auto en Finlandia por la suma de 9000 euros (9744 dólares), pero esta promesa no se cumplió. En cambio, después de seis meses, la familia de Fatma fue deportada a Bulgaria porque sus “huellas dactilares se registraron primero en Sofía”.
Fatma, ahora de 21 años, vivió con su familia en un campo de refugiados en la capital búlgara. Mientras ayudaba a su padre en el salón de belleza del campo, también trabajó medio tiempo para la empresa de etiquetado donde yo hacía trabajo de campo. La empresa la contrató en el campo de refugiados.
En nuestra conversación inicial, estaba en la oficina de la empresa, sentada al lado de Diana, otra solicitante de asilo siria que etiquetaba imágenes de personas según raza, edad y género.
En contraste, Fatma se vio inmersa en un proyecto que involucraba imágenes satelitales y segmentación semántica, tarea crítica para visión artificial que incluye meticulosa separación y etiquetado de cada pixel de una imagen. Esta forma de trabajo con datos tiene particular importancia en generar datos para capacitar IA, sobre todo para sistemas de visión artificial insertos en dispositivos, como cámaras, drones y hasta armas.
Fatma explicó que la tarea consistía principalmente en separar “los árboles de los arbustos y los autos de la gente, los caminos y las edificaciones». Después de esta segmentación, adhería las etiquetas correspondientes para identificar cada objeto.
Se necesitan habilidades para trabajar con datos
Si se explica de esta manera, el trabajo podría parecer trivial y sencillo. Esas tareas caen dentro de lo que se conoce como microtrabajo, trabajo de clic o, como yo lo llamo, trabajo de datos. Esto constituye el trabajo necesario para generar datos para entrenar y validar sistemas de IA.
Según el Banco Mundial, hay entre 154 millones y 435 millones de trabajadores de datos en todo el mundo, y muchos están ubicados o desplazados de la mayoría global. A menudo trabajan como subcontratados en plataformas o empresas. principalmente como trabajadores independientes, y ganan algunos centavos por pieza o tarea sin protecciones labores, como licencia por enfermedad remunerada que comúnmente se encuentran en relaciones laborales más tradicionales.
Los trabajadores de datos generar datos a través de diversos medios que van desde sacar información de internet a grabar sus voces o publicar selfies. Como Fatma, frecuentemente hacen labores de etiquetado. Además, los trabajadores de datos pueden colaborar con supervisión del algoritmo, como calificar los resultados de los sistemas de recomendaciones en plataformas como Netflix o Spotify, y evaluar su utilidad, pertinencia y toxicidad.
En otros casos, a los trabajadores de datos pueden encargarles suplantar sistemas de IA inexistentes e instruirles a “pensar como un robot” haciéndose pasar como chatbot, por ejemplo.
Pese a su rol fundamental en el desarrollo y mantenimiento de tecnologías de IA, el trabajo se datos suele ser menospreciado como microtrabajo, que incluye algunos clics, y considerado como poco calificado u obrero.
Le pregunté a Fatma si las imágenes de satélite en las que estaba trabajando podrían ser de Siria. Dijo que la arquitectura y los vehículos le parecían conocidos. Me pregunto si se estaba sacando provecho de su desplazamiento como si fuera experiencia. Mirando la pantalla, susurró, “espero que esto bno sea para armas». Ni ella ni yo podíamos estar seguras.
Lo conocido y lo desconocido
La proliferación de drones autónomos y tecnologías de enjambre ha visto un crecimiento exponencial en años recientes, facilitado por la integración de IA para reconocer, identificar objetivos y procesos de toma de decisiones.
Para ilustrar un ejemplo estremecedor, se han usado tecnologías de reconocimiento facial para ratificar la segregación y vigilancia de palestinos, mientras que las armas automatizadas han tenido un rol fundamental en el actual genocidio en Gaza. Empresas como la israelí SmartShooter alardean sobre sus capacidades letales con el lema “Un tiro, un acierto”.
Drones de vigilancia, analíticas predictivas y sistemas de sustento de decisiones se usan para el planeamiento estratégico en “previsión de amenazas» y seguimiento en tiempo real a lo largo de regiones fronterizas. Por ejemplo, la Oficina Federal Alemana para Migración y Refugiados emplea biométricas de imágenes para identificación de identidad y biométricas de voz para análisis de dialectos para verificar el país de origen de solicitantes de asilo y evaluar su idoneidad para el asilo. Esto lo reveló la Oficina para la Migración alemana en respuesta a una investigación de parlamentarios alemanes. Los trabajadores de datos subcontratados a través de la plataforma Clickworker participaron en producir las muestras de voz necesarias para desarrollar el sistema.
Afortunadamente, la empresa de datos en Bulgaria tiene una sólida política para rechazar solicitudes relacionadas con tecnologías de guerra, explicó la gerente de Fatma.
Agregó que las imágenes por satélite que el equipo etiquetó habían sido encargadas por una empresa centroeuropea que elabora sistemas de pilotaje autónomo para el transporte aéreo, no armas. Esta información coincide con la del sitio web del cliente. Sin embargo, el sitio web también afirma que su tecnología se usa además para vehículos aéreos no tripulados (UAV), comúnmente conocidos como drones, con aplicaciones que incluyen vigilancia.
Preocupación por la ética de los trabajadores
Las filtraciones de la privacidad y el potencial para los perfiles discriminatorios están entre las inquietudes más obvias relacionadas con sistemas de IA aplicadas a vigilancia de fronteras y guerra. A pesar de que estos riesgos afectan desproporcionadamente a sus comunidades, a veces con consecuencias letales, la mayoría de los trabajadores de datos no saben el objetivo de los datos que están ayudando a producir.
Subcontratar organizaciones externas para el trabajo de datos, que a menudo están geográficamente lejos de los solicitantes, complica los esfuerzos de los trabajadores para navegar las intricadas cadenas de suministro que sustenta la industria de IA. Las instrucciones que se da a los trabajadores de datos no suelen dar detalles del solicitante o del uso que se dará a los datos.
Las empresas de IA suelen racionalizar el velo de secreto como medio de salvaguardar su ventaja competitiva.
El hecho de que los trabajadores de datos estén integrados en las estructuras industriales diseñadas para mantenerlos no informados y sujetos a vigilancia, represalias y robo de remuneraciones no significa que no tengan preocupaciones éticas sobre su trabajo y las aplicaciones de IA que respalda.
Es más, en algunos casos, los trabajadores de datos han alertado explícitamente a los consumidores de asuntos relacionados con la privacidad y otros asuntos éticos asociados con los datos que generan. Por ejemplo, en 2022, trabajadores de datos venezolanos informaron anónimamente que aspiradores robot Roomba captura imágenes de usuarios en su casa, que después los ven trabajadores humanos.
Los trabajadores del sector de los datos tienen un punto de vista único que puede desempeñar un papel crucial en la identificación temprana de problemas éticos relacionados con los datos y la IA. Es esencial animar a los consumidores y a la sociedad en general a alinearse con esos problemas al defender una mayor transparencia en el proceso de producción de datos de IA.
Milagros Miceli es socióloga y científica informática que lidera el grupo de investigación Datos, Sistemas Algorítmicos y Ética en el Instituto Weizenbaum. También es investigadora del Instituto de Investigación Distribuida de IA (DAIR). La investigación de Miceli es sobre condiciones laborales y desigualdades de poder en trabajo de datos subcontratados, examina su impacto en conjuntos de datos de aprendizaje automático. A través de una amplia gama de metodologías basadas en los trabajadores, participa activamente en comunidades de trabajadores de datos en condiciones precarias de la mayoría global en proyectos de acción-investigación. Sus intereses más amplios incluyen asuntos de legitimidad y producción de conocimiento en datos, investigación comunitaria, organización del trabajo y la intersección de estudios de datos críticos y activismo de datos.

Este articulo es parte de The Bridge (El puente), presentacion con opiniones, comentario e investigacion desde la perspectiva singular de la Comunidad de Global Voices. · Todos los articulos

Este articulo es de GV Advox, un proyecto de Global Voices con su propio sitio web, en pro de la defensa de la libertad de expresion y contra la censura en internet. · Todos los articulos
LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ
Fotografía: Global voices. Ilustración de Jafar Safatli para UntoldMag.org