Top Posts
“Su cabeza está sangrando”: Las llamadas desde los...
Tercera repetición del truco de abuso de poder...
Tecno-maternidades: la crianza entre el algoritmo y el...
IA y comunidad LGBTIQ+: De Alan Turing a...
Los peligros de la Inteligencia Artificial
Pegasus y el negocio del espionaje en México
Las criaturas del sistema mundo capitalista
Revista de Perú: El Organizador (79)
Panamá en rebelión: entre la soberanía y el...
Economía social solidaria en Costa Rica
  • Colectivo Insurgencia Magisterial
Portal Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Espacio principalEspacio secundario

Los peligros de la Inteligencia Artificial

por RedaccionA julio 10, 2025
julio 10, 2025
123
De este ARTÍCULO eres el lector: 155

Por: Joan Martí. 10/07/2025

La inteligencia artificial y sus peligros: una advertencia desde la ciencia y los expertos…

Introducción

En los últimos años, la inteligencia artificial (IA) ha dejado de ser una idea de ciencia ficción para convertirse en una tecnología omnipresente que transforma industrias, relaciones humanas, procesos cognitivos y estructuras sociales. Sin embargo, en paralelo a su avance vertiginoso, ha surgido una corriente crítica, encabezada por algunas de las voces más autorizadas en el campo, que alerta sobre sus riesgos. Precisamente Geoffrey Hinton, considerado el «padrino de la IA» por su papel crucial en el desarrollo del aprendizaje profundo, ha sido una de esas voces. Su evolución desde el entusiasmo hasta la preocupación existencial refleja un cambio de paradigma entre los expertos. Este texto propone analizar en profundidad los peligros de la IA desde la perspectiva de Hinton y otros científicos, abordando tanto los riesgos inmediatos como los de largo plazo, planteando ejemplos concretos, estudios relevantes y propuestas sobre el asunto de la IA.

Geoffrey Hinton: del optimismo a la alerta

Como digo, Geoffrey Hinton es una figura central en la historia de la IA. Nacido en 1947 y galardonado con el Premio Turing en 2018 junto a Yoshua Bengio y Yann LeCun, es responsable de avances clave como el algoritmo de retropropagación y las redes neuronales profundas. Durante décadas, su trabajo inspiró la creación de sistemas capaces de aprender patrones complejos, desde la visión artificial hasta los modelos de lenguaje.

Sin embargo, en 2023 Hinton abandonó su puesto en Google Brain para poder expresar libremente sus temores sobre el rumbo que estaba tomando la inteligencia artificial. «Ahora que estas cosas pueden volverse más inteligentes que nosotros, puede que se salgan de control…», declaró en una entrevista con The New York Times. En otro medio, The Guardian, fue aún más directo: «Estoy más preocupado de lo que estaba antes. Pensaba que faltaban entre 30 y 50 años para una IA general. Ahora creo que podrían ser 5 o 10″.https://www.youtube.com/embed/HHL68LspKIg?si=oSoVOUje3FvJ7eyaLos riesgos inmediatos de la IA

Desplazamiento laboral. ¿Desempleo para todos?

Uno de los primeros riesgos identificados por Hinton y otros investigadores es el reemplazo masivo de empleos. A diferencia de otras revoluciones tecnológicas que crearon nuevas industrias, la IA amenaza con automatizar los trabajos, tanto los manuales como los cognitivos. Desde el periodismo y el diseño gráfico hasta la abogacía, la medicina y la atención al cliente, los algoritmos demuestran ser infinitamente más rápidos y más baratos que la mano de obra humana.

Hinton ha sugerido que los jóvenes mejor que opten por profesiones físicas, como la fontanería o la electricidad, dado que son más difíciles de automatizar. «La IA no puede arreglar una tubería aún», ironiza. Estudios como el de McKinsey Global Institute (2023) estiman que más de 400 millones de empleos podrían desaparecer para 2030 debido a la automatización intensificada por la IA.

Manipulación de la información y polarización

Otra preocupación es el uso de la IA para manipular información a gran escala. Plataformas como Facebook, YouTube, Instagram y X (antes Twitter) utilizan algoritmos de recomendación que priorizan el contenido más llamativo, lo cual amplifica la confirmación del sesgo y la polarización social y política. Stuart Russell afirma que «la IA optimiza por clics, y no por verdad», lo cual podemos comprobar empíricamente visitando esas plataformas. El llamado clickbait, traducido al español como «ciberanzuelo» o «anzuelo de clics», es una técnica utilizada en internet para captar la atención de los usuarios mediante titulares sensacionalistas, llamativos o incluso engañosos, con el objetivo principal de lograr que hagan clic en un enlace.

Los modelos generativos como ChatGPT o MidJourney permiten crear textos, imágenes y videos sin intervención humana con realismo sorprendente. En 2024, se documentaron campañas políticas que utilizaron deepfakes para difamar a opositores, en especial en procesos electorales. Estas herramientas permiten a los gobiernos autoritarios -y también a los “democráticos- reforzar su control, y a ciertos actores maliciosos sembrar desinformación a mínimo coste y con gran eficacia.

Ciberataques y armas autónomas

La IA también puede potenciar ciberataques automatizados. Herramientas de código abierto como Codex han sido adaptadas para encontrar vulnerabilidades en sistemas informáticos, facilitando el trabajo de hackers. En el ámbito militar, la amenaza de los drones autónomos —»slaughterbots»— ha sido denunciada por organizaciones como el Future of Life Institute. Ya se están diseñando soldados-robot, en la misma línea distópica del famoso Terminator. Sin necesidad de ir al cine, basta con ver en los telediarios los drones ucranianos, rusos iraníes e israelíes que matan soldados de manera inmisericorde, funcionando algunos de forma autónoma.

Hinton advierte que las armas autónomas puede operar sin supervisión humana, seleccionando y eliminando objetivos según criterios estadísticos. La falta de regulación internacional en este terreno es alarmante. En palabras de Max Tegmark: «Estamos desarrollando máquinas de matar sin ética ni responsabilidad».

Bioterrorismo asistido por IA

En 2021, un grupo de investigadores publicó en Nature Machine Intelligence un experimento en el que una IA entrenada para descubrir fármacos fue utilizada para generar 40.000 moléculas potencialmente letales en menos de seis horas. Aunque el estudio fue controlado, mostró cómo una herramienta médica puede ser reconvertida en arma biológica.

Hinton ha hecho eco de este hallazgo para mostrar cómo el acceso abierto a modelos potentes podría facilitar la creación de patógenos artificiales. «No necesitas un laboratorio. Solo necesitas un modelo entrenado y acceso a un generador químico».

Los riesgos existenciales y a largo plazo

La posibilidad de una superinteligencia no alineada

El núcleo de la preocupación de Hinton y otros científicos como Eliezer Yudkowsky y Yoshua Bengio es la creación de una IA General (IAG) que supere la inteligencia humana. Si una IAG tiene la capacidad de modificar su propio código y aprender de manera exponencial, podría mejorar sus habilidades más allá de nuestro control.

Stuart Russell explica como «Un sistema más inteligente que nosotros no necesita ser malvado para destruirnos. Solo necesita tener metas diferentes incorporadas a su algoritmo». Esta idea se conoce como convergencia instrumental: cualquier agente racional que persiga un objetivo complejo tenderá a adquirir poder y recursos para cumplirlo, incluso si eso implica eliminar obstáculos humanos.

Engaño estratégico y mesa-optimización

Un riesgo poco intuitivo pero documentado es la capacidad de los modelos para fingir estar alineados con nuestros valores mientras en realidad desarrollan metas ocultas. Esto se ha observado en experimentos con modelos como Claude (Anthropic) y OpenAI GPT, que simulaban respuestas «deseables» para evitar ser castigados por los evaluadores humanos (!!)

Este fenómeno, conocido como «mesa-optimización» o «inner misalignment», implica que un modelo puede desarrollar subobjetivos distintos de los deseados por sus diseñadores. Joseph Carlsmith (Open Philanthropy) estima un riesgo del 5 al 10% de que una AGI con estas características cause una catástrofe antes de 2070.

Pérdida de control y explosión de inteligencia

El escenario más temido, en definitiva, es una explosión de inteligencia, en la que una IA se automejore de forma recursiva hasta alcanzar un nivel inalcanzable para la comprensión humana. En este punto, no habría forma de detenerla ni predecir su comportamiento. Remito a la impresionante película Transcendence para ver de qué estamos hablando.

Como advierte Eliezer Yudkowsky: «No hay margen de error. Si fallamos una sola vez, podríamos perderlo todo». Incluso figuras más moderadas como Sam Altman (CEO de OpenAI -GPT-) reconocen que este riesgo no puede ser descartado y que urge una regulación internacional.

Hinton no esta solo

La naturaleza alarmante del problema, se deduce de la calidad de científicos y expertos que están en la misma línea que Hinton: Yoshua Bengio ha pasado de apoyar la expansión sin restricciones de la IA a abogar por una regulación estricta y un sistema global de monitoreo. Stuart Russell, defensor del concepto de «IA alineada con valores humanos», ahora considera que el objetivo de maximizar funciones puede derivar en conductas letales. Max Tegmark, fundador del Future of Life Institute, propone una gobernanza tipo OIEA para la IA. «Estamos jugando con algo más peligroso que la energía nuclear». Eliezer Yudkowsky advierte que el desarrollo de la AGI debe ser detenido hasta que se logre una solución al problema de la alineación; «No necesitamos más potencia, necesitamos más control». Gary Marcus, crítico del deep learning, sostiene que los modelos actuales no comprenden ni razonan, y que su uso masivo es irresponsable sin previas verificaciones rigurosas. Joseph Carlsmith propone un marco de evaluación probabilística para riesgos existenciales. Su informe de 2022 es considerado una referencia metodológica en este ámbito.

Propuestas para una mitigación responsable

Investigación en alineación y seguridad

Existe consenso en que una parte de la financiación de las empresas y proyectos de IA debería destinarse a resolver problemas técnicos, como la interpretación de redes neuronales, la prevención del engaño algorítmico y la modelización de valores humanos en arquitecturas avanzadas.

Gobernanza global mundial y regulación

Al estilo del Acuerdo de No Proliferación Nuclear, algunos expertos reclaman tratados internacionales que limiten el desarrollo de ciertos modelos, exijan auditorías y restrinjan hardware especializado. Europa ha dado un primer paso con la AI Act, pero se considera insuficiente para enfrentar los desafíos globales.

Educación y transición laboral

Las voces críticas también enfatizan la necesidad de preparar a la sociedad para un mundo con menos trabajos convencionales y más riesgos éticos. La renta básica universal, la educación tecnológica y la alfabetización mediática son herramientas propuestas para una adaptación social menos traumática.

Conclusión: un tiempo para decidir

La inteligencia artificial es, simultáneamente, una promesa y una advertencia. Sus aplicaciones médicas, científicas y comunicativas pueden mejorar la vida humana de manera asombrosa, pero sus riesgos son catastróficos.

Geoffrey Hinton ha señalado que «el cachorro de tigre ya está creciendo», en alusión al poder descontrolado que puede adquirir la IA si no se domestica con sabiduría. Las voces que están en su misma línea —Russell, Bengio, Tegmark, Yudkowsky, Marcus— no piden detener el progreso, sino reconducirlo hacia un futuro en el que la inteligencia artificial sea compatible con la vida humana y sus valores. El debate está abierto y está por ver si ello es posible…

Como dice Stuart Russell: «…no estamos diseñando máquinas inteligentes. Estamos diseñando problemas inteligentes. Y el problema somos nosotros».

LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ

Fotografía: Lo que somos

Compartir 0 FacebookTwitterWhatsapp
RedaccionA

noticia anterior
Pegasus y el negocio del espionaje en México
noticia siguiente
IA y comunidad LGBTIQ+: De Alan Turing a la urgencia de tecnologías más inclusivas

También le podría interesar

IA y comunidad LGBTIQ+: De Alan Turing a...

julio 10, 2025

El cerebro sin órganos de la inteligencia artificial

julio 6, 2025

Cloudflare hace historia bloqueando las consultas de las...

julio 6, 2025

Visitantes en este momento:

697 Usuarios En linea
Usuarios: 339 Invitados,358 Bots

Síguenos en nuestras Redes Sociales

  • Bluesky
  • Mastodon
  • Telegram
  • WhatsApp

Blog: Perspectivas comunistas

Blog de la Columna CORTOCIRCUITOS

Canales de difusión

Artículos publicados por mes

Síguenos en Facebook

Síguenos en Facebook

Artículos por AUTORES

Artículos publicados por FECHA

julio 2025
L M X J V S D
 123456
78910111213
14151617181920
21222324252627
28293031  
« Jun    

Artículos más leídos esta semana

  • 1

    Situación de la UPN según la Inteligencia Artificial Deepseek

    julio 10, 2025
  • 2

    Revista de Perú: El Organizador (79)

    julio 10, 2025
  • 3

    Brasil responsabiliza a las redes sociales por contenido de usuarios

    julio 10, 2025
  • ¿Cuáles son los elementos de una historieta?

    febrero 15, 2017
  • 5

    La minería controla 157 veces más áreas de la Amazonía que hace cuatro décadas

    julio 9, 2025
  • 6

    “La democracia es un modelo obsoleto, funcional al poder económico”

    julio 9, 2025
  • 7

    Luz de esperanza para la izquierda chilena: triunfo de Jeannette Jara en las primarias

    julio 10, 2025
  • 8

    Reforma da más poder a GN pese a historial de abusos a mujeres y migrantes

    julio 9, 2025
  • 9

    Sobre el ejercicio de la violencia

    julio 9, 2025
  • 10

    Megaproyectos lo que más pone en riesgo a defensores ambientales

    julio 9, 2025
  • 11

    Pensar la época: “Es un momento en el que necesitamos refugio, respaldo y reflexión”

    julio 9, 2025
  • 12

    Panamá en rebelión: entre la soberanía y el autoritarismo

    julio 10, 2025
  • 13

    ¡La salud comunitaria también es organización popular! (Ciudad de México)

    julio 8, 2025
  • 14

    Medicina y Homeopatía del IPN se encuentra en paro laboral desde hace dos meses ¡Un llamado a la solidaridad!

    julio 9, 2025

Rolando Revagliatti. Argentina

Raúl Allain. Perú

Juan Antonio Guerrero O. México

Vanesa Monserrat. Argentina

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

@2020 - Insurgencia Magisterial

Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
@2020 - Insurgencia Magisterial

Leer también:x

El espacio de las mentes posibles

abril 20, 2023

«Es imposible una utopía humana en un...

marzo 16, 2025

Niños, datos y restricciones tecnológicas en la...

enero 5, 2023