Top Posts
Manifiesto de presentación de «Las calles contra el...
Sobre los disturbios de Salt: Entrevista a un...
Brasil. Busca frenar el avande de los BRICS
La guerra que se libra en contra del...
La crueldad de las palabras: retrocesos del Estado...
Todo lo que necesitas saber sobre los compresores...
Samper alerta sobre el intento de una «reconquista...
Por qué proteger el protocolo de Bluesky puede...
La conciencia de clase: un arma contra la...
Gobiernos progresistas en Latinoamérica deben unificarse ante políticas...
  • Colectivo Insurgencia Magisterial
Portal Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Espacio principalEspacio secundario

Cuando los entrenadores de IA subcontratan su trabajo a otras IA

por RedaccionA octubre 24, 2023
octubre 24, 2023
639

Por: Rhiannon Williams. 24/10/2023

Es una práctica que podría introducir más errores en modelos que ya de por sí son propensos a errores

Según un nuevo estudio, una proporción significativa de las personas que se dedican a entrenar modelos de IA podrían estar subcontratando ese trabajo a la propia IA.

Para entrenar a los sistemas de IA hace falta una gran cantidad de datos para que realicen tareas específicas con precisión y fiabilidad. Muchas empresas pagan a trabajadores externos de plataformas como Mechanical Turk para que realicen tareas que suelen ser difíciles de automatizar, como resolver CAPTCHA, clasificar datos y anotar texto. Estos datos se introducen en los modelos de IA para entrenarlos. Los trabajadores están mal pagados y, a menudo, se espera que realicen muchas tareas rápidamente.

No es de extrañar que algunos de ellos recurran a herramientas como ChatGPT para maximizar su potencial. Sin embargo, ¿cuántos lo han hecho? Para averiguarlo, un equipo de investigadores de la Escuela Politécnica Federal de Suiza (EPFL) contrató a 44 personas en la Amazon Mechanical Turk, la plataforma de trabajo por encargo, para que resumieran 16 extractos de varios artículos de investigación médica. A continuación, analizaron sus respuestas mediante un modelo de IA que habían entrenado ellos mismos y que busca señales que revelen resultados ChatGPT, como la falta de variedad en la elección de palabras. También extrajeron el número de pulsaciones de las teclas de los trabajadores para averiguar si habían copiado y pegado sus respuestas, un indicador de que habían sido generadas en otro lugar.

Calcularon que entre el 33% y el 46% de los trabajadores habían utilizado modelos de IA como ChatGPT de OpenAI. Es un porcentaje que irá aumentando a medida que ChatGPT y otros sistemas de IA sean más potentes y accesibles, según los autores del estudio, que se ha compartido en arXiv y aún no ha sido revisado por otros expertos.

“No creo que sea el fin de las plataformas de colaboración colectiva. Solo cambia la dinámica”, afirma Robert West, profesor adjunto en la EPFL y coautor del estudio.

Utilizar datos generados por la IA para entrenarla podría introducir más errores en modelos que ya de por sí son propensos a cometerlos. Los grandes modelos lingüísticos suelen presentar información falsa como si fueran hechos. Si generan resultados incorrectos y estos se utilizan para entrenar otros modelos de IA, podrían absorber los errores y amplificarlos con el tiempo. Por tanto, cada vez sería más difícil averiguar su origen, asegura Ilia Shumailov, investigador junior de Informática de la Universidad de Oxford (Reino Unido), que no participó en el proyecto.

No obstante, aún no hay una solución sencilla. “Cuando utilizas datos artificiales, adquieres los malentendidos de los modelos y los errores estadísticos“, explica Shumailov. “Tienes que asegurarte de que tus errores no están sesgando la salida de otros modelos, y no hay una forma sencilla de hacerlo”.

El estudio subraya la necesidad de disponer de nuevas formas de comprobar si los datos han sido producidos por humanos o por una IA. También pone de manifiesto otro problema, la tendencia de las empresas tecnológicas a confiar en los trabajadores externos para que realicen el trabajo vital, que incluye ordenar los datos que alimentan los sistemas de IA. 

“No va a colapsar todo”, afirma West. “Pero la comunidad de IA tendrá que investigar a fondo qué tareas son más propensas a ser automatizadas, y encontrar formas de evitarlo”.

LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ

Fotografía: Technology review

Compartir 0 FacebookTwitterWhatsapp
RedaccionA

noticia anterior
‘Hablo del Gobierno de México, ¿su familiar volvió o sigue desaparecido?’
noticia siguiente
Movimientos populares e intelectuales se reunirán en Foz de Iguazú para debatir la integración de los pueblos

También le podría interesar

Pequeños modelos de lenguaje: 10 Tecnologías Emergentes 2025

mayo 7, 2025

Daniel Innerarity: «Una teoría crítica de la inteligencia...

mayo 6, 2025

Por qué es tan difícil —y necesario— regular...

mayo 6, 2025

Visitantes en este momento:

1.222 Usuarios En linea
Usuarios: 207 Invitados,1.014 Bots

Blog: Perspectivas comunistas

La mejor opción para Xalapa…

Nuestras redes sociales

Blog de la Columna CORTOCIRCUITOS

Nuestros grupos de difusión

Artículos publicados por mes

Síguenos en Facebook

Síguenos en Facebook

Artículos por AUTORES

Artículos publicados por FECHA

mayo 2025
L M X J V S D
 1234
567891011
12131415161718
19202122232425
262728293031  
« Abr    

Artículos más leídos esta semana

  • ¿Cuáles son los elementos de una historieta?

    febrero 15, 2017
  • 2

    Entrega CNTE pliego petitorio a SEP, SG e Issste con miras a huelga nacional del 15 de mayo

    mayo 5, 2025
  • 3

    Televisa Leaks | La fábrica de mentiras, manipulación y guerra sucia

    mayo 7, 2025
  • 4

    Algunas ideas para un anarquismo proactivo

    mayo 4, 2025
  • 5

    ALFONSO CEPEDA ESPURIO DIRIGENTE DEL SNTE

    mayo 4, 2025
  • 6

    Daniel Innerarity: «Una teoría crítica de la inteligencia artificial»

    mayo 6, 2025
  • 7

    Suspenden fallo de jueza y orden de aprehensión contra Evo Morales sigue vigente

    mayo 7, 2025
  • 8

    Pequeños modelos de lenguaje: 10 Tecnologías Emergentes 2025

    mayo 7, 2025
  • 9

    Educación compartida

    mayo 8, 2025
  • 10

    El gobierno de Milei busca desalojar la redacción de El Grito del Sur

    mayo 7, 2025
  • 11

    Bolivia. ¿Quién traicionó a quién? Las claves de la ruptura Evo-Andrónico

    mayo 7, 2025
  • 12

    Cuerpos cultivados en laboratorio: el debate ético de esta posible revolución médica

    mayo 8, 2025
  • 13

    Llama CNTE a lucha obrera y campesina en demanda de salario digno

    mayo 5, 2025
  • 14

    [Vídeo] Juventud reaccionaria: ¿Ser facho está de moda? – Escupamos La Historia

    mayo 7, 2025

Rolando Revagliatti. Argentina

Raúl Allain. Perú

Juan Antonio Guerrero O. México

Vanesa Monserrat. Argentina

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

@2020 - Insurgencia Magisterial

Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
@2020 - Insurgencia Magisterial

Leer también:x

¿QUIÉN CONTROLA LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL?

julio 19, 2023

La robótica, la inteligencia artificial o la...

julio 2, 2022

IA y educación: los olvidados de siempre...

noviembre 15, 2024