Top Posts
Ante la ratificación del Director del Colegio Preparatorio...
La CNTE: autonomía y movilización en el marco...
No hay cárcel que acabe con el sindicalismo
Alto al ataque mediático contra la CNTE, magisterio,...
Venezuela. Producción petrolera supera el millón de barriles...
Jueza envía a prisión preventiva al abogado Alejandro...
Corea del Sur: la cultura como estrategia para...
Bolivia. La política dividida entre un sujeto (Eduardo...
Pedro Laín Entralgo: «Antropología de la esperanza»
Bolivia. Evo anuncia su apoyo a las movilizaciones...
  • Colectivo Insurgencia Magisterial
Portal Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Espacio principalEspacio secundario

Por qué los algoritmos de las redes sociales son cada vez más peligrosos

por RedaccionA octubre 17, 2021
octubre 17, 2021
870

Por: Paula Adamo Idoeta. 16/10/2021

Stuart Russell, profesor de la Universidad de California en Berkeley, se ha dedicado al estudio de la ingeniería artificial (IA) durante décadas.

Pero también es uno de sus críticos más conocidos, al menos del modelo de IA al que todavía ve como “estándar” en el mundo.

Rusell ha advertido que el modelo predominante de IA es, en su opinión, una amenaza para la supervivencia de los seres humanos.

Pero, a diferencia de las tramas de películas de Hollywood sobre el tema, no se trata de que estas tecnologías se vuelvan conscientes y se vuelvan contra nosotros.

La principal preocupación de Russell es la forma cómo sus desarrolladores humanos han programado esta inteligencia: tienen la tarea de optimizar sus tareas tanto como sea posible, básicamente a cualquier costo.

Y así se vuelven “ciegos” e indiferentes a los problemas (o, en última instancia, a la destrucción) que pueden causar a los humanos.

El genio salió de la botella

Para explicarle esto a BBC News Brasil, Russell utiliza la metáfora de un genio de una lámpara que cumple los deseos de su maestro.

“Le pides al genio que te convierta en la persona más rica del mundo, y así sucede, pero solo porque el genio hizo que el resto de las personas desaparecieran”, dice.

“(En IA) construimos máquinas con lo que yo llamo los modelos estándar: ellas reciben objetivos que tienen que lograr u optimizar, para los cuales encuentran la mejor solución posible. Y luego llevan a cabo esa acción”.

Incluso si esta acción es, en la práctica, perjudicial para los humanos, argumenta.

  • Qué se sabe de la falla que afectó durante horas a Facebook, Instagram y WhatsApp en todo el mundo

“Si construimos la IA para optimizar un objetivo fijo dado por nosotros, ellas (las máquinas) serán como psicópatas, persiguiendo ese objetivo y siendo completamente ajenas a todo lo demás, incluso si les pedimos que se detengan”.

Un ejemplo cotidiano de esto, dice Russell, son los algoritmos que rigen a las redes sociales, que se han vuelto tan evidentes en los últimos días con el colapso global que afectó a Facebook, Instagram y WhatsApp durante unas seis horas.

La tarea principal de estos algoritmos es mejorar la experiencia del usuario en las redes sociales. Como, por ejemplo, recopilando la mayor información posible sobre ese usuario y proporcionándole contenido que se adapte a sus preferencias para que permanezcan conectados por más tiempo.

Incluso si esto se produce a expensas del bienestar del usuario o la ciudadanía global, continúa el investigador.

"Si construimos la Inteligencia Artificial para optimizar un objetivo fijo dado por nosotros, ellas (las máquinas) serán casi como psicópatas, persiguiendo ese objetivo y siendo completamente ajenos a todo lo demás, incluso si les pedimos que se detengan".
Pie de foto,”Si construimos la Inteligencia Artificial para optimizar un objetivo fijo dado por nosotros, ellas (las máquinas) serán casi como psicópatas, persiguiendo ese objetivo y siendo completamente ajenos a todo lo demás, incluso si les pedimos que se detengan”.

“Las redes sociales crean adicción, depresión, disfunción social, tal vez extremismo, polarización de la sociedad y, tal vez contribuyen a difundir desinformación”, señala Russell.

“Y está claro que sus algoritmos están diseñados para optimizar un objetivo: que las personas hagan clic, que pasen más tiempo enganchadas con el contenido”, continúa.

“Y, al optimizar estas cantidades, podemos estar causando enormes problemas a la sociedad”.

No obstante, prosigue Russel, esos algoritmos no se someten a un escrutinio lo suficiente como para ser verificados o “arreglados”, por lo que siguen trabajando para optimizar su objetivo, indistintamente del daño colateral.

“(Las redes sociales) no solo están optimizando lo incorrecto, sino que también están manipulando a las personas, porque al manipularlas consigue aumentar su compromiso. Y si puedo hacerte más predecible, por ejemplo, transformándote en un ecoterrorista extremo, puedo enviarte contenido ecoterrorista y asegurarme de que hagas clic para optimizar mis clics”.

Estas críticas fueron reforzadas la semana pasada por la ex trabajadora de Facebook (y actual informante) Frances Haugen, quien testificó ante una audiencia del Congreso de Estados Unidos.

Haugen dijo que las redes sociales “dañan a los niños, provocan divisiones y socavan la democracia”.

  • “Facebook daña a los niños y debilita la democracia”: el duro testimonio de una exempleada de la red social ante el Senado de EE.UU.

Facebook ha reaccionado diciendo que Haugen no tiene suficiente conocimiento para hacer tales afirmaciones.

IA con “valores humanos”

Russell, a su vez, explicará sus teorías a una audiencia de investigadores brasileros el próximo 13 de octubre durante una conferencia de la Academia Brasileña de Ciencias de forma virtual.

El investigador, autor de “Compatibilidad Humana: Inteligencia artificial y el problema del control“, es considerado pionero en el campo al que él llama “inteligencia artificial compatible con la existencia humana”.

Frances Haugen, ex empleada de Facebook, acusó a la empresa y sus productos de "dañar a los niños, causar división y socavar la democracia".
Pie de foto,Frances Haugen, ex empleada de Facebook, acusó a la empresa y sus productos de “dañar a los niños, causar división y socavar la democracia”.

“Precisamos de un tipo completamente diferente al sistema de IA”, opina Russell.

Este tipo de IA, prosigue, tendría que “saber” que tiene limitaciones, que no puede cumplir sus objetivos a ningún costo y que, incluso siendo una máquina, puede estar errada.

“Haría que esta inteligencia se comportase de un modo completamente diferente, más cautelosa (…), que va a pedir permiso antes de hacer algo cuando no tiene certeza de si es lo que queremos. Y, en un caso más extremo, que querría ser apagada para no hacer algo que nos va a perjudicar. Ese es mi mensaje principal”.

La teoría defendida por Russell no forma parte de un consenso: hay quienes no consideran amenazante ese modelo vigente de IA.

Un ejemplo famoso de los dos lados de este debate ocurrió algunos años atrás, en una discusión pública entre los empresarios de tecnología Mark Zuckerberg y Elon Musk.

Mark Zuckerberg tiene una visión optimista del modelo actual de Inteligencia Artificial
Pie de foto,Mark Zuckerberg tiene una visión optimista del modelo actual de Inteligencia Artificial.

Un reportaje de The New York Times señala que, en una cena ocurrida en 2014, los dos empresarios debatieron entre sí.

Musk apuntó que el “realmente creía en el peligro” de la IA de volverse superior y subyugar a los humanos.

Zuckerberg, sin embargo, opinó que Musk estaba siendo alarmista.

En una entrevista de ese mismo año, el creador de Facebook se consideraba un “optimista” en cuando a IA y afirmó que los críticos, como Musk, “estaban creando escenarios apocalípticos e irresponsables”.

“Siempre que escucho a gente diciendo que la IA va a perjudicar a las personas en el futuro, pienso que la tecnología generalmente puede ser usada para el bien o para el mal, y debes tener cuidado en cómo la construyes y en cómo va a ser usada. Pero encuentro cuestionable defender la ralentización del proceso de IA. No consigo entender eso”.

Musk ha argumentado que la IA es “potencialmente más peligrosa que las ojivas nucleares“.

Un lento e invisible desastre nuclear

Stuart Russell se suma a la preocupación de Musk y también traza paralelos con los peligros de la carrera nuclear.

“Creo que muchos (especialistas en tecnología) consideran este argumento (los peligros de la IA) amenazante porque básicamente dice que ‘la disciplina en la que hemos estado durante varias décadas es potencialmente un riesgo’. Algunas personas ven eso como lo contrario a la IA”, sustenta Russell.

Elon Musk ha dicho que considera que la inteligencia artificial es "potencialmente más peligrosa que las ojivas nucleares".
Pie de foto,Elon Musk ha dicho que considera que la inteligencia artificial es “potencialmente más peligrosa que las ojivas nucleares”.

“Mark Zuckerberg cree que los comentarios de Elon Musk son anti IA, pero eso me suena ridículo. Es como decir que la advertencia de que una bomba nuclear podría explotar es un argumento anti físico. No es anti físico, es un complemento de la física, por haber creado una tecnología tan poderosa que puede destruir el mundo”.

“De hecho, tuvimos (los accidentes nucleares) de Chernóbil y Fukushima, y la industria fue diezmada porque no prestó atención suficiente a los riesgos. Entonces, si quieres obtener beneficios de la IA, tiene que prestar atención a los riesgos”.

La actual falta de control sobre los algoritmos de las redes sociales, argumenta Russell, puede causar “enormes problemas para la sociedad” a escala global. Pero, a diferencia de un desastre nuclear, este es “lento y de modo casi invisible”.

¿Cómo revertir entonces este curso?

Para Russell, puede ser necesario un rediseño completo de los algoritmos de las redes sociales. Pero, primero, es necesario conocerlos a fondo, opina.

“Descubrir qué causa la polarización”

Russell señala que en Facebook, por ejemplo, ni siquiera en el consejo independiente encargado de supervisar a la red social tiene acceso pleno al algoritmo que hace curaduría del contenido visto por los usuarios.

“Pero hay un gran grupo de investigadores y un gran proyecto en marcha en la Global Partnership en AI (GPAI según sus siglas en inglés), trabajando con una gran red social, que no puedo identificar, para obtener acceso a datos y hacer experimentos”, dice Russell.

“Lo principal es hacer experimentos con grupos de control, ver con las personas qué está causando la polarización social y depresión y (ver) si al cambiar el algoritmo mejora eso”.

“No le estoy diciendo a las personas que dejen de usar las redes sociales o que son inherentemente malvadas”, prosigue Russell.

“(El problema) es la forma cómo los algoritmos funcionan, el uso de likes, de subir contenido (con base en las preferencias) o su eliminación. El modo en cómo el algoritmo escoge qué colocar en la pantalla parece basarse en métricas que son perjudiciales para las personas“.

“Por lo tanto, debemos poner el beneficio del usuario como objetivo principal y eso va a hacer que las cosas funcionen mejor y que la gente este feliz de usar sus sistemas”, sentencia.

No habrá una respuesta única sobre qué es “beneficioso”. Por lo tanto, argumenta el investigador, los algoritmos tendrán que adaptar ese concepto para cada usuario individualmente, una tarea que, el propio Russell admite, no es nada fácil.

“De hecho, esta (área de las redes sociales) será una de las más difíciles donde se pondrá en práctica este nuevo modelo de IA”, afirma.

“Creo realmente tenemos que empezar todo desde cero. Es posible que acabemos entendiendo la diferencia entre manipulación aceptable e inaceptable“.

Continua Russell: “Por ejemplo, en el sistema educativo, manipulamos a los niños para volverlos ciudadanos conocedores, capaces, exitosos y bien integrados. Y consideramos eso aceptable”.

“Pero si ese mismo proceso volviese a los niños terroristas, sería una manipulación inaceptable. ¿Cómo exactamente diferencias entre ambos? Es una cuestión muy difícil. Las redes sociales suscitan estos cuestionamientos bastante difíciles que hasta los filósofos tienen dificultades en responder”, dice el investigador.

LEER EL ARTICULO ORIGINAL PULSANDO AQUÍ

Fotografía: BBC

Compartir 0 FacebookTwitterWhatsapp
RedaccionA

noticia anterior
Cirrus Minor “Simply Red: Picture Book y en México”
noticia siguiente
La columna de Pedro Brieger | Un 12 de octubre con luces y sombras

También le podría interesar

Una lloradita y a seguir

junio 1, 2025

La IA también sabe persuadir mejor que las...

mayo 31, 2025

Educación capitalista. Mercantilización, violencia y sometimiento tecnológico. Una...

mayo 30, 2025

Visitantes en este momento:

1.241 Usuarios En linea
Usuarios: RedaccionA,colaboracionjs,RedaccionEM,516 Invitados,722 Bots

Blog: Perspectivas comunistas

Desde el Plantón magisterial en el Zócalo de la CDMX

Nuestras redes sociales

Blog de la Columna CORTOCIRCUITOS

Nuestros grupos de difusión

Artículos publicados por mes

Síguenos en Facebook

Síguenos en Facebook

Artículos por AUTORES

Artículos publicados por FECHA

junio 2025
L M X J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« May    

Artículos más leídos esta semana

  • 1

    AFORES: un robo para los trabajadores. ¿Quiénes son y cuántas cuentas controlan?

    mayo 25, 2025
  • 2

    Banco Azteca es premiado con 25 % de las AFORES: Pedro Hernández de la CNTE

    mayo 30, 2025
  • 3

    La CNTE, la 4T y el fantasma de la irreformabilidad del neoliberalismo

    mayo 29, 2025
  • 4

    EL PROBLEMA DE LA USICAMM ES… ¡TODO!

    mayo 31, 2025
  • 5

    CLAUDIA NO ES CÁRDENAS (obvio, no es una cuestión de género)

    mayo 28, 2025
  • ¿Cuáles son los elementos de una historieta?

    febrero 15, 2017
  • 7

    La primavera no se alquila: dignidad magisterial y respeto a la historia

    mayo 30, 2025
  • 8

    Y sin embargo obedecen. El cerco mediático contra el magisterio rebelde

    mayo 28, 2025
  • 9

    La CNTE: autonomía y movilización en el marco de una hegemonía progresista (1/3)

    mayo 31, 2025
  • 10

    Más de 2 mil personas resisten frente a Equinox Gold y desmienten a funcionario

    mayo 29, 2025
  • 11

    Educación capitalista. Mercantilización, violencia y sometimiento tecnológico. Una lectura de la reciente obra educativa y pedagógica del profesor Renán Vega Cantor1

    mayo 30, 2025
  • 12

    Nuevo León convierte a maestros en servidores públicos para quitarles derechos

    mayo 22, 2025
  • 13

    Crisis institucional: impunidad y estiércol por doquier.

    mayo 18, 2025
  • 14

    Nueva ley de transparencia menoscaba la democracia y rendición de cuentas

    mayo 30, 2025

Rolando Revagliatti. Argentina

Raúl Allain. Perú

Juan Antonio Guerrero O. México

Vanesa Monserrat. Argentina

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

@2020 - Insurgencia Magisterial

Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
@2020 - Insurgencia Magisterial

Leer también:x

Distopía de alta tecnología: la receta que...

mayo 14, 2020

Desafíos de la comunicación popular en la...

agosto 7, 2020

Smilemundo o cómo educar en el cambio...

septiembre 11, 2023