Top Posts
“Su cabeza está sangrando”: Las llamadas desde los...
Tercera repetición del truco de abuso de poder...
Tecno-maternidades: la crianza entre el algoritmo y el...
IA y comunidad LGBTIQ+: De Alan Turing a...
Los peligros de la Inteligencia Artificial
Pegasus y el negocio del espionaje en México
Las criaturas del sistema mundo capitalista
Revista de Perú: El Organizador (79)
Panamá en rebelión: entre la soberanía y el...
Economía social solidaria en Costa Rica
  • Colectivo Insurgencia Magisterial
Portal Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Espacio principalEspacio secundario

IA y comunidad LGBTIQ+: De Alan Turing a la urgencia de tecnologías más inclusivas

por RedaccionA julio 10, 2025
julio 10, 2025
100
De este ARTÍCULO eres el lector: 128

Por: Daniela Rojas. 10/07/2025

Desde los sesgos invisibles que se cuelan en los datos hasta la falta de voces queer en las decisiones clave, la inteligencia artificial reproduce desigualdades que afectan a la comunidad LGBTIQ+. Conversamos con activistas y expertos para entender los riesgos, desmontar el pinkwashing y abrir rutas hacia tecnologías realmente inclusivas.

Cuando hablamos de IA, el primer nombre que suele venir a la mente es Alan Turing: pionero en matemáticas, computación y en sentar las bases de esta tecnología. Turing, además, era un hombre homosexual. Comenzar este texto con su historia no es casualidad: es un recordatorio de que, desde sus orígenes, la IA ha estado profundamente ligada a la comunidad LGBTIQ+.

Sin embargo, esa conexión histórica no se ha traducido necesariamente en tecnologías más inclusivas. Por el contrario, la IA sigue fallando a la hora de reconocer el arcoíris de matices que conforma nuestra sociedad.

Para hablar del tema conversé con Diego Halffter, fundador de DH2; Frida Ruiz, cofundadora de Wavy Node; Pablo Marín, director general de PLURALIO; y Valeria Tafoya, investigadora en el McCoy Family Center for Ethics in Society de Stanford. Con ellas y ellos reflexioné sobre los riesgos que enfrentan ante estas tecnologías y exploramos caminos posibles hacia un futuro más justo.

Los sesgos no solo son errores técnicos, son estructurales

Los sesgos: esa es, casi siempre, la primera conexión que surge cuando hablamos de los impactos negativos de la inteligencia artificial sobre poblaciones vulnerables. Es bien sabido que los sistemas de IA pueden perpetuar y amplificar prejuicios sociales ya existentes. En el caso de la comunidad LGBTIQ+, esto se traduce en estereotipos reforzados, invisibilización sistemática o tratos inequitativos por parte de tecnologías que, en teoría, deberían ser neutrales.

Pero la IA no discrimina por sí sola: aprende de un mundo que ya lo hace. Los modelos actuales se entrenan con datos históricos que reflejan estigmas, lenguaje excluyente y una falta crónica de representación. ¿Qué implica esto? Que, aunque como sociedad hemos avanzado en el reconocimiento formal de algunos derechos, los datos del pasado siguen condicionando los resultados de los sistemas del presente.

Esta subrepresentación en los conjuntos de datos no es fortuita. Por un lado, prevalece una visión heteronormada en la información digital. Como apunta Frida Ruiz: “En realidad no es culpa de los modelos, es una réplica de lo que hay en internet.” A esto se suma la limitación en la recopilación de datos sobre orientación sexual o identidad de género, al tratarse de información clasificada como sensible. Y, además, la diversidad y fluidez de las identidades queer desafía modelos construidos desde categorías binarias que no siempre saben cómo representarlas.

Sin embargo, los sesgos no se limitan únicamente a los datos de entrenamiento: se filtran en cada etapa del ciclo de vida de un sistema. Aparecen en el diseño (cuando se asume la heteronormatividad como norma), en la selección de variables (que a menudo reproducen estructuras de exclusión), en el etiquetado (donde los prejuicios individuales se codifican) y en la evaluación y el despliegue (cuando se entregan resultados discriminatorios).

Por eso, uno de los pasos más urgentes es integrar de forma sistemática a personas LGBTIQ+ en todas las fases de desarrollo de los sistemas de IA. Además, necesitamos ir más allá de simples auditorías: se requieren marcos inclusivos e interseccionales que tomen en cuenta las múltiples capas de vulnerabilidad. Herramientas como el etiquetado participativo de datos o los procesos de co-creación con comunidades pueden ayudar a diseñar sistemas más justos y empáticos. Como bien dice Frida Ruiz, “sesgar el sesgo” no es una distorsión, sino un acto consciente: “Aplicar un sesgo correctivo hacia la inclusión no es una manipulación, sino una forma ética de reparación.”

Moderación, privacidad y exposición

“Lo que más me preocupa es el tema de privacidad, consentimiento y exposición” compartió Valeria Tafoya. Hoy en día, los algoritmos no sólo determinan lo que vemos o dejamos de ver; también clasifican y censuran. Muchas veces, el contenido relacionado con identidades y diversidades sexuales es etiquetado automáticamente como “inapropiado”, lo que restringe su alcance y visibilidad, o en algunos casos eliminándolos. Mientras unos sistemas invisibilizan voces, otros amplifican discursos de odio o desinformación.

Ligado a esto se suma un riesgo menos visible pero grave: la exposición involuntaria. El cruce de múltiples datos (muchas veces de información que creemos privada) permite que los sistemas de IA infieran patrones y construyan perfiles detallados sin que la persona concernida lo sepa o lo haya autorizado. Esta capacidad de procesamiento se vuelve particularmente poderosa en contextos de violencia, como en muchos de los países de América Latina, donde el número de agresiones contra la comunidad LGBTIQ+ es muy alto.

Por eso, es necesario repensar qué información se recopila, cómo se utiliza y quién tiene el poder de decidirlo. Porque hablar de privacidad no implica negar el valor de los datos. En algunos sectores, como la salud, la identidad de género puede ser crucial para tener un diagnóstico pertinente. Sin embargo, el desafío está en diseñar mecanismos de recolección que garanticen el anonimato, el consentimiento informado y la protección real de quienes deciden compartir su información.

La representatividad no siempre significa reconocimiento

Cuando se pregunta por la representatividad de la comunidad, la primera respuesta suele ser clara: no, todavía no la hay. Sin embargo, es importante recordar que figuras como Sam Altman, un hombre abiertamente homosexual, lideran hoy algunas de las compañías que están revolucionando la inteligencia artificial, y no es el único.

Pero estar presente no equivale a estar verdaderamente reconocido, y mucho menos garantiza que las estructuras se transformen desde dentro. La diversidad, cuando se queda solo en lo simbólico, se convierte en una herramienta más de marketing: campañas con banderas multicolor durante el mes del orgullo, pero sin cambios reales detrás. Diego Halffter advierte que este enfoque —conocido como pinkwashing— “puede generar visibilidad y abrir puertas, pero también corre el riesgo de legitimar estructuras que siguen reproduciendo desigualdad si no se acompaña de cambios coherentes en las prácticas internas”.

Se necesitan acciones que vayan mucho más allá de un simple checklist. Integrar la diversidad implica incorporarla de forma transversal en los equipos, las decisiones, los datos, los productos, las políticas y las estructuras de gobernanza de cada empresa u organización. Y hacerlo es urgente, especialmente en un contexto cada vez más complejo, como subraya Pablo Marín: “Las amenazas existentes me preocupan, pero me preocupa mucho más la creciente oleada de hiperconservadurismo que amenaza los entornos diversos”.

En torno al orgullo, este texto es una invitación a imaginar y construir una tecnología más justa, diversa y humana. Es momento de ir más allá de la inclusión simbólica y avanzar hacia un ecosistema tecnosocial donde la diversidad no solo esté presente, sino que tenga voz, poder y agencia. Un mundo donde hombres, mujeres y personas no binarias participen activamente en la configuración de la tecnología que nos define.

LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ

Fotografía: Wired. Qi Yang

Compartir 0 FacebookTwitterWhatsapp
RedaccionA

noticia anterior
Los peligros de la Inteligencia Artificial
noticia siguiente
Tecno-maternidades: la crianza entre el algoritmo y el capitalismo

También le podría interesar

Los peligros de la Inteligencia Artificial

julio 10, 2025

Seguridad digital en un régimen de excepción: así...

julio 7, 2025

El cerebro sin órganos de la inteligencia artificial

julio 6, 2025

Visitantes en este momento:

905 Usuarios En linea
Usuarios: La Redacción,399 Invitados,505 Bots

Síguenos en nuestras Redes Sociales

  • Bluesky
  • Mastodon
  • Telegram
  • WhatsApp

Blog: Perspectivas comunistas

Blog de la Columna CORTOCIRCUITOS

Canales de difusión

Artículos publicados por mes

Síguenos en Facebook

Síguenos en Facebook

Artículos por AUTORES

Artículos publicados por FECHA

julio 2025
L M X J V S D
 123456
78910111213
14151617181920
21222324252627
28293031  
« Jun    

Artículos más leídos esta semana

  • 1

    Situación de la UPN según la Inteligencia Artificial Deepseek

    julio 10, 2025
  • 2

    Panamá en rebelión: entre la soberanía y el autoritarismo

    julio 10, 2025
  • 3

    Revista de Perú: El Organizador (79)

    julio 10, 2025
  • 4

    Pegasus y el negocio del espionaje en México

    julio 10, 2025
  • 5

    Brasil responsabiliza a las redes sociales por contenido de usuarios

    julio 10, 2025
  • ¿Cuáles son los elementos de una historieta?

    febrero 15, 2017
  • 7

    Las criaturas del sistema mundo capitalista

    julio 10, 2025
  • 8

    La minería controla 157 veces más áreas de la Amazonía que hace cuatro décadas

    julio 9, 2025
  • 9

    “La democracia es un modelo obsoleto, funcional al poder económico”

    julio 9, 2025
  • 10

    Luz de esperanza para la izquierda chilena: triunfo de Jeannette Jara en las primarias

    julio 10, 2025
  • 11

    Sobre el ejercicio de la violencia

    julio 9, 2025
  • 12

    Reforma da más poder a GN pese a historial de abusos a mujeres y migrantes

    julio 9, 2025
  • 13

    Megaproyectos lo que más pone en riesgo a defensores ambientales

    julio 9, 2025
  • 14

    Pensar la época: “Es un momento en el que necesitamos refugio, respaldo y reflexión”

    julio 9, 2025

Rolando Revagliatti. Argentina

Raúl Allain. Perú

Juan Antonio Guerrero O. México

Vanesa Monserrat. Argentina

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

@2020 - Insurgencia Magisterial

Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
@2020 - Insurgencia Magisterial

Leer también:x

Pulso en la orilla

julio 10, 2023

Cultura de paz inteligente en tiempos de...

septiembre 22, 2024

¿Están sesgadas las imágenes generadas por IA?

octubre 5, 2023