Por: Joan Martí. 10/07/2025
La inteligencia artificial y sus peligros: una advertencia desde la ciencia y los expertos…
Introducción
En los últimos años, la inteligencia artificial (IA) ha dejado de ser una idea de ciencia ficción para convertirse en una tecnología omnipresente que transforma industrias, relaciones humanas, procesos cognitivos y estructuras sociales. Sin embargo, en paralelo a su avance vertiginoso, ha surgido una corriente crítica, encabezada por algunas de las voces más autorizadas en el campo, que alerta sobre sus riesgos. Precisamente Geoffrey Hinton, considerado el «padrino de la IA» por su papel crucial en el desarrollo del aprendizaje profundo, ha sido una de esas voces. Su evolución desde el entusiasmo hasta la preocupación existencial refleja un cambio de paradigma entre los expertos. Este texto propone analizar en profundidad los peligros de la IA desde la perspectiva de Hinton y otros científicos, abordando tanto los riesgos inmediatos como los de largo plazo, planteando ejemplos concretos, estudios relevantes y propuestas sobre el asunto de la IA.
Geoffrey Hinton: del optimismo a la alerta
Como digo, Geoffrey Hinton es una figura central en la historia de la IA. Nacido en 1947 y galardonado con el Premio Turing en 2018 junto a Yoshua Bengio y Yann LeCun, es responsable de avances clave como el algoritmo de retropropagación y las redes neuronales profundas. Durante décadas, su trabajo inspiró la creación de sistemas capaces de aprender patrones complejos, desde la visión artificial hasta los modelos de lenguaje.
Sin embargo, en 2023 Hinton abandonó su puesto en Google Brain para poder expresar libremente sus temores sobre el rumbo que estaba tomando la inteligencia artificial. «Ahora que estas cosas pueden volverse más inteligentes que nosotros, puede que se salgan de control…», declaró en una entrevista con The New York Times. En otro medio, The Guardian, fue aún más directo: «Estoy más preocupado de lo que estaba antes. Pensaba que faltaban entre 30 y 50 años para una IA general. Ahora creo que podrían ser 5 o 10″.https://www.youtube.com/embed/HHL68LspKIg?si=oSoVOUje3FvJ7eyaLos riesgos inmediatos de la IA
Desplazamiento laboral. ¿Desempleo para todos?
Uno de los primeros riesgos identificados por Hinton y otros investigadores es el reemplazo masivo de empleos. A diferencia de otras revoluciones tecnológicas que crearon nuevas industrias, la IA amenaza con automatizar los trabajos, tanto los manuales como los cognitivos. Desde el periodismo y el diseño gráfico hasta la abogacía, la medicina y la atención al cliente, los algoritmos demuestran ser infinitamente más rápidos y más baratos que la mano de obra humana.
Hinton ha sugerido que los jóvenes mejor que opten por profesiones físicas, como la fontanería o la electricidad, dado que son más difíciles de automatizar. «La IA no puede arreglar una tubería aún», ironiza. Estudios como el de McKinsey Global Institute (2023) estiman que más de 400 millones de empleos podrían desaparecer para 2030 debido a la automatización intensificada por la IA.
Manipulación de la información y polarización
Otra preocupación es el uso de la IA para manipular información a gran escala. Plataformas como Facebook, YouTube, Instagram y X (antes Twitter) utilizan algoritmos de recomendación que priorizan el contenido más llamativo, lo cual amplifica la confirmación del sesgo y la polarización social y política. Stuart Russell afirma que «la IA optimiza por clics, y no por verdad», lo cual podemos comprobar empíricamente visitando esas plataformas. El llamado clickbait, traducido al español como «ciberanzuelo» o «anzuelo de clics», es una técnica utilizada en internet para captar la atención de los usuarios mediante titulares sensacionalistas, llamativos o incluso engañosos, con el objetivo principal de lograr que hagan clic en un enlace.
Los modelos generativos como ChatGPT o MidJourney permiten crear textos, imágenes y videos sin intervención humana con realismo sorprendente. En 2024, se documentaron campañas políticas que utilizaron deepfakes para difamar a opositores, en especial en procesos electorales. Estas herramientas permiten a los gobiernos autoritarios -y también a los “democráticos- reforzar su control, y a ciertos actores maliciosos sembrar desinformación a mínimo coste y con gran eficacia.
Ciberataques y armas autónomas
La IA también puede potenciar ciberataques automatizados. Herramientas de código abierto como Codex han sido adaptadas para encontrar vulnerabilidades en sistemas informáticos, facilitando el trabajo de hackers. En el ámbito militar, la amenaza de los drones autónomos —»slaughterbots»— ha sido denunciada por organizaciones como el Future of Life Institute. Ya se están diseñando soldados-robot, en la misma línea distópica del famoso Terminator. Sin necesidad de ir al cine, basta con ver en los telediarios los drones ucranianos, rusos iraníes e israelíes que matan soldados de manera inmisericorde, funcionando algunos de forma autónoma.
Hinton advierte que las armas autónomas puede operar sin supervisión humana, seleccionando y eliminando objetivos según criterios estadísticos. La falta de regulación internacional en este terreno es alarmante. En palabras de Max Tegmark: «Estamos desarrollando máquinas de matar sin ética ni responsabilidad».
Bioterrorismo asistido por IA
En 2021, un grupo de investigadores publicó en Nature Machine Intelligence un experimento en el que una IA entrenada para descubrir fármacos fue utilizada para generar 40.000 moléculas potencialmente letales en menos de seis horas. Aunque el estudio fue controlado, mostró cómo una herramienta médica puede ser reconvertida en arma biológica.
Hinton ha hecho eco de este hallazgo para mostrar cómo el acceso abierto a modelos potentes podría facilitar la creación de patógenos artificiales. «No necesitas un laboratorio. Solo necesitas un modelo entrenado y acceso a un generador químico».
Los riesgos existenciales y a largo plazo
La posibilidad de una superinteligencia no alineada
El núcleo de la preocupación de Hinton y otros científicos como Eliezer Yudkowsky y Yoshua Bengio es la creación de una IA General (IAG) que supere la inteligencia humana. Si una IAG tiene la capacidad de modificar su propio código y aprender de manera exponencial, podría mejorar sus habilidades más allá de nuestro control.
Stuart Russell explica como «Un sistema más inteligente que nosotros no necesita ser malvado para destruirnos. Solo necesita tener metas diferentes incorporadas a su algoritmo». Esta idea se conoce como convergencia instrumental: cualquier agente racional que persiga un objetivo complejo tenderá a adquirir poder y recursos para cumplirlo, incluso si eso implica eliminar obstáculos humanos.
Engaño estratégico y mesa-optimización
Un riesgo poco intuitivo pero documentado es la capacidad de los modelos para fingir estar alineados con nuestros valores mientras en realidad desarrollan metas ocultas. Esto se ha observado en experimentos con modelos como Claude (Anthropic) y OpenAI GPT, que simulaban respuestas «deseables» para evitar ser castigados por los evaluadores humanos (!!)
Este fenómeno, conocido como «mesa-optimización» o «inner misalignment», implica que un modelo puede desarrollar subobjetivos distintos de los deseados por sus diseñadores. Joseph Carlsmith (Open Philanthropy) estima un riesgo del 5 al 10% de que una AGI con estas características cause una catástrofe antes de 2070.
Pérdida de control y explosión de inteligencia
El escenario más temido, en definitiva, es una explosión de inteligencia, en la que una IA se automejore de forma recursiva hasta alcanzar un nivel inalcanzable para la comprensión humana. En este punto, no habría forma de detenerla ni predecir su comportamiento. Remito a la impresionante película Transcendence para ver de qué estamos hablando.
Como advierte Eliezer Yudkowsky: «No hay margen de error. Si fallamos una sola vez, podríamos perderlo todo». Incluso figuras más moderadas como Sam Altman (CEO de OpenAI -GPT-) reconocen que este riesgo no puede ser descartado y que urge una regulación internacional.
Hinton no esta solo
La naturaleza alarmante del problema, se deduce de la calidad de científicos y expertos que están en la misma línea que Hinton: Yoshua Bengio ha pasado de apoyar la expansión sin restricciones de la IA a abogar por una regulación estricta y un sistema global de monitoreo. Stuart Russell, defensor del concepto de «IA alineada con valores humanos», ahora considera que el objetivo de maximizar funciones puede derivar en conductas letales. Max Tegmark, fundador del Future of Life Institute, propone una gobernanza tipo OIEA para la IA. «Estamos jugando con algo más peligroso que la energía nuclear». Eliezer Yudkowsky advierte que el desarrollo de la AGI debe ser detenido hasta que se logre una solución al problema de la alineación; «No necesitamos más potencia, necesitamos más control». Gary Marcus, crítico del deep learning, sostiene que los modelos actuales no comprenden ni razonan, y que su uso masivo es irresponsable sin previas verificaciones rigurosas. Joseph Carlsmith propone un marco de evaluación probabilística para riesgos existenciales. Su informe de 2022 es considerado una referencia metodológica en este ámbito.
Propuestas para una mitigación responsable
Investigación en alineación y seguridad
Existe consenso en que una parte de la financiación de las empresas y proyectos de IA debería destinarse a resolver problemas técnicos, como la interpretación de redes neuronales, la prevención del engaño algorítmico y la modelización de valores humanos en arquitecturas avanzadas.
Gobernanza global mundial y regulación
Al estilo del Acuerdo de No Proliferación Nuclear, algunos expertos reclaman tratados internacionales que limiten el desarrollo de ciertos modelos, exijan auditorías y restrinjan hardware especializado. Europa ha dado un primer paso con la AI Act, pero se considera insuficiente para enfrentar los desafíos globales.
Educación y transición laboral
Las voces críticas también enfatizan la necesidad de preparar a la sociedad para un mundo con menos trabajos convencionales y más riesgos éticos. La renta básica universal, la educación tecnológica y la alfabetización mediática son herramientas propuestas para una adaptación social menos traumática.
Conclusión: un tiempo para decidir
La inteligencia artificial es, simultáneamente, una promesa y una advertencia. Sus aplicaciones médicas, científicas y comunicativas pueden mejorar la vida humana de manera asombrosa, pero sus riesgos son catastróficos.
Geoffrey Hinton ha señalado que «el cachorro de tigre ya está creciendo», en alusión al poder descontrolado que puede adquirir la IA si no se domestica con sabiduría. Las voces que están en su misma línea —Russell, Bengio, Tegmark, Yudkowsky, Marcus— no piden detener el progreso, sino reconducirlo hacia un futuro en el que la inteligencia artificial sea compatible con la vida humana y sus valores. El debate está abierto y está por ver si ello es posible…
Como dice Stuart Russell: «…no estamos diseñando máquinas inteligentes. Estamos diseñando problemas inteligentes. Y el problema somos nosotros».
LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ
Fotografía: Lo que somos