Top Posts
La NEM, ¿nueva?
Musk y Trump: divorcio en la familia ultra
¿Quiénes cuidan a las niñas que cuidan?
“¿En los universos de qué artistas…?”
El Charco: 27 años de impunidad
El tecnofeudalismo se tragaría al TACO Trump
Comunidad de la Prepa Juárez en Xalapa, en...
Cancillerías de varias naciones condenan el asalto y...
RESISTIR PARA REFUNDAR
Protestas en Los Ángeles contra redadas enfurecen a...
  • Colectivo Insurgencia Magisterial
Portal Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Espacio principalEspacio secundario

La historia del algoritmo. Los “fallos” de la Inteligencia Artificial 

por RedaccionA junio 5, 2023
junio 5, 2023
903

Por: Julio César Guanche. 05/06/2023

En 2021 un hombre, afroamericano, fue arrestado en Michigan, y esposado frente a su casa delante de su familia. La orden de detención fue generada por un sistema de Inteligencia Artificial (IA), que identificó al sujeto como el comisor de un hurto. La IA había sido entrenada mayoritariamente con rostros blancos, y erró por completo al identificar al infractor. Probablemente, haya sido el primer arresto injusto de su tipo.

Ese mismo año, en Holanda 26 mil familias fueron acusadas de fraude. El dato en común entre ellas era poseer algún origen migrante. El hecho llevó a la ruina a miles de inocentes, que perdieron casas y trabajos, obligados a devolver dinero de la asistencia social.

Se trataba de un error que generó una “injusticia sin precedentes” en ese país. El gabinete renunció ante el escándalo. El diagnóstico del supuesto fraude lo elaboró una IA.

La IA: utopías y distopías dataístas 

Por más novedosa que sea la IA, no es nuevo el lugar de las matemáticas en el procesamiento de asuntos sociales.

La filosofía rebosa de utopías dataístas. Para Tomás Moro, la instauración de un nuevo método de gobierno debía basarse en una herramienta que garantizara la excelencia en la administración de los negocios: las matemáticas. Con la IA, la utopía de “la buena administración de las cosas y el buen gobierno de las personas”, de Saint-Simon, promete una renovada oportunidad a través de algoritmos procesados por máquinas, no por gusto llamadas “ordenadores”.

La IA supone la interacción entre un software que aprende y se adapta, un hardware con poder masivo de cómputo, y cantidades ingentes de datos. Ha sido definida como “una constelación de procesos y tecnologías que permiten que las computadoras complementen o reemplacen tareas específicas que de otro modo serían ejecutadas por seres humanos, como tomar decisiones y resolver problemas”. 

Son muchas sus ventajas: toma de decisiones informadas, gestión masiva de información, lucha contra la crisis climática, restauración de ecosistemas y hábitats, retardo de pérdida de biodiversidad, eficiente colocación de recursos sociales, mejora de ayuda humanitaria y de asistencia social, diagnósticos y aplicaciones de salud, control de flujos de tráfico, etcétera.

Ahora, las distintas connotaciones políticas de los usos de las matemáticas han sido advertidas de muchas maneras. Engels le decía a Marx en 1881: “Ayer, por fin, encontré las fuerzas para estudiar sus manuscritos matemáticos y, aunque no utilicé libros de apoyo, me alegró ver que no los necesitaba. Lo felicito por su trabajo. El asunto está tan claro como la luz del día, así que no deja de extrañarme la forma en que los matemáticos insisten en mitificarlo. Debe de ser por su manera tan partidista de pensar”.

Karl Popper, el autor de La sociedad abierta y sus enemigos, considerada la “biblia de las democracias occidentales” por Bertrand Rusell —él mismo matemático—, comenzó su carrera como profesor de matemáticas y física.

El Leviatán, de Thomas Hobbes, un programa político de todo punto antirrepublicano, decía que un buen gobierno procede de la modelización sobre una máquina: “este gran Leviatán llamado REPÚBLICA o ESTADO no es otra cosa que un hombre artificial, aunque de estatura y fuerza superiores a las del hombre natural”. 

La IA, ese “hombre artificial”, promete ser neutral, pero es muchas veces parcial: produce así un “leviatán algorítmico”. Con frecuencia, opera con una caja negra: se conoce la información suministrada al algoritmo, pero se desconoce el proceso seguido por este para alcanzar determinado resultado. En esas condiciones, si existe discriminación, se ignora si se produjo sobre la base de sexo, etnia, color de la piel, edad, religión, ideología, u otra dimensión. 

Sin cajas negras  —en algunos países están siendo sometidas a regulación legal— sería posible identificar cómo un algoritmo discrimina. Por lo general, se debe a que la información sobre la que se entrenan los algoritmos es parcial, o a que estos reproducen sesgos discriminatorios preexistentes. No es posible obviar que la estructura histórica de la industria tecnológica está compuesta principalmente por hombres blancos, de estratos clasistas y marcos culturales bastante homogéneos entre sí.

No obstante, la discriminación puede resultar también intencional. El odio, la división y la mentira son buenos para los negocios: multiplican los intercambios a monetizar. En este campo, la producción de discriminación se puede esconder bajo secreto empresarial.

El racismo algorítmico

La noción de raza ocupa un papel central en la discriminación algorítmica.

De esta centralidad da cuenta la Recomendación sobre la Ética de la Inteligencia Artificial, primer instrumento mundial sobre el tema, adoptada en noviembre de 2021 por 193 Estados miembros de la UNESCO. El documento procura, entre otros objetivos, asegurar la equidad y la no discriminación en la implementación de IA, en busca de evitar que se perpetúen las desigualdades sociales existentes, y de proteger grupos vulnerables.

No hay forma científica de justificar la existencia de “razas” humanas. Todos los individuos del género humano cuentan con 99.99 % de genes y ADN idénticos.  Los rasgos que determinan el aspecto físico de las personas obedecen tan sólo a 0.01 % del material genético. El concepto de raza es resultado del racismo, no su origen.

La IA cubre con un manto de ciencia su proceder en materia de raza —asegura que es una variable invisible— pero opera muchas veces con bases pseudocientíficas.

El primer empleo formal del término “pseudociencia” se registra en 1824, para calificar la frenología. Los sistemas de reconocimiento facial que aseguran predecir peligrosidad, características o personalidad a partir de fotografías, reproducen lógicas de esa pseudociencia.

Expresión de racismo científico, como fueron también la craneometría, la demografía racial y la antropología criminal, la frenología afirmaba la posibilidad de determinar el carácter y los rasgos de la personalidad, y de tendencias criminales, basándose en la forma del cráneo, la cabeza y las facciones. Hace bastante cuenta con nula validez científica.

Sin embargo, según Achille Mbembe, el importante filósofo camerunés, “los nuevos dispositivos de seguridad [como el reconocimiento facial con uso de IA] vuelven a tener en cuenta elementos del pasado en regímenes anteriores: regímenes disciplinarios y penales del esclavismo, elementos de guerras coloniales de conquista y ocupación, técnicas jurídico-legales de excepción.”

Hay pruebas a granel de ello. El sistema COMPAS, utilizado en Estados Unidos para  predecir reincidencia en delitos, ha sido cuestionado porque los acusados afroamericanos sufren el doble de probabilidades de ser  calificados de modo erróneo por el sistema. Un mismo curriculum vitae tiene 50% de posibilidades más de pasar a una entrevista de trabajo si el nombre del candidato es identificado por el algoritmo como europeo-americano, que como afroamericano.

Joy Adowaa Buolamwini, una científica informática del Massachusetts Institute of Technology (MIT), a quien Netflix le dedicó el documental Coded Bias, ha evaluado varios sistemas de reconocimiento facial de empresas de vanguardia en el ramo. Su conclusión fue que las tasas de error en el reconocimiento para los hombres de piel más clara eran de no más de 1 %. A la vez, encontró que al tratarse de mujeres de piel más oscura los errores alcanzaban 35 %. 

Sistemas líderes de reconocimiento facial han sido incapaces de reconocer los rostros de Michelle Obama, Oprah Winfrey y Serena Williams. Twitter no pudo identificar a Barack Obama. Un rapero construido con Inteligencia Artificial fue “despedido” por reproducir estereotipos racistas. Tay, una IA concebida para tener interacciones “cool” con sus usuarios, en menos de 24 horas pasó de decir que los humanos eran “súper guay” a decir que “Hitler no hizo nada malo”. Personas de color de piel negro pueden no recibir en Facebook publicidad de venta de casas.

¿Es racista la IA?

Dejemos responder la pregunta a ChatGpt3:

La IA es tan buena como los datos que procesa. Un modelo de algoritmo mal diseñado difunde sesgos a escala.  Al mismo tiempo, dar por buenos los datos a procesar por la IA, sin someterlos a escrutinio crítico, es un sueño de la razón que produce monstruos sin cesar.

Las series de datos policiales, por ejemplo, responden a bases de información que han sido construidas, en muchos casos, con datos parciales, con prácticas legales que después dejaron de serlo, o con métodos desde entonces ilegales, en contextos comunes de racismo policial.

El racismo es una herencia estructural, social y cultural que a la vez se reconstruye. El racismo es reinterpretado, evoluciona y se reproduce. No basta con un criterio de justicia como “no discriminación”, al procesar los datos, que mantenga anónimos los nombres implicados, e invisibilice los datos raciales, que entienda la justicia al modo de “tratar a todos como iguales”.

Un caso conocido en Estados Unidos, mostró la incapacidad de ese criterio para producir resultados justos: un sistema de IA, para conceder préstamos bancarios, omitió nombres y cualquier dato que pudiese remitir al color de la piel. Sin embargo, el resultado produjo resultados marcadamente racistas. 

La investigación arrojó que la petición del código postal de su vivienda a cada sujeto involucrado en la investigación reintrodujo el racismo, aunque se hubiese pretendido expulsar la marca de la raza de los datos colectados. El código postal de zonas identificadas con mayorías de población afroamericana fue desfavorecido en comparación con los vecindarios cuyo código postal era identificada por el algoritmo como mayormente blancos.

El presente es su historia: lo que se saca por la puerta, regresa por la ventana. La superación de la historia requiere hacerla visible, no lo contrario.

PETICIÓN A LA IA: RETRATO REALISTA DE LOS HÉROES CUBANOS DE LA INDEPENDENCIA DE 1868 Y 1895, QUE INCLUYA A CARLOS MANUEL DE CÉSPEDES, JOSÉ MARTÍ, ANTONIO MACEO Y GUILLERMÓN MONCADA.

El solucionismo tecnológico no es la solución

Las soluciones ofrecidas por máquinas tienen aureola de neutralidad ideológica, eficiencia tecnológica y cifran las nuevas capacidades para enfrentar antiguos problemas. La IA se presenta como gestión tecnológica de la organización de asuntos comunes. Es fácil enmarcarla dentro de la ideología no partidista del “solucionismo tecnológico”.

Sin embargo, para Cathy O’Neil, matemática y activista estadounidense, los algoritmos resultan “opiniones encerradas en matemáticas”. Sin comprometerse con estadísticas conscientes de la noción de raza, sin hacer que los datos tomen en cuenta las diferencias socioeconómicas de grupos poblacionales frente a otros grupos, sin garantizar participación, control y transparencia en la recolección y uso de datos, el algoritmo pierde mucho de su fascinación tecnológica, y revela, bastante primitivamente, la naturaleza política del contexto en que funciona.

La raza no existe, pero existe el racismo. La IA no es racista per se, pero produce resultados racistas. Sin hacerse cargo de la historia, el algoritmo es una opinión que codifica la exclusión y programa la discriminación dominantes en la historia inscrita en sus datos.

LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ

Fotografía: Lobo suelto

Compartir 0 FacebookTwitterWhatsapp
RedaccionA

noticia anterior
Ideología de la desconfianza
noticia siguiente
Marea derechista vs. progresismo en declive

También le podría interesar

China. De Confucio a la IA: el país...

junio 7, 2025

Pensamiento crítico. Cara y ceca de la Inteligencia...

junio 6, 2025

Con la IA, uno de cada cuatro empleos...

junio 3, 2025

Visitantes en este momento:

914 Usuarios En linea
Usuarios: RedaccionA,310 Invitados,603 Bots

Blog: Perspectivas comunistas

Desde el Plantón magisterial en el Zócalo de la CDMX

Nuestras redes sociales

Blog de la Columna CORTOCIRCUITOS

Nuestros grupos de difusión

Artículos publicados por mes

Síguenos en Facebook

Síguenos en Facebook

Artículos por AUTORES

Artículos publicados por FECHA

junio 2025
L M X J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« May    

Artículos más leídos esta semana

  • 1

    La CNTE y el acto de desenlatar la lucha de clases en México

    junio 6, 2025
  • 2

    ¡NO NOS VAMOS, SOLO NOS HACEMOS UN POCO MAS A LA IZQUIERDA!

    junio 6, 2025
  • 3

    Alto al ataque mediático contra la CNTE, magisterio, organizaciones y sindicatos

    junio 2, 2025
  • 4

    Ante la ratificación del Director del Colegio Preparatorio de Xalapa por parte de la USICAMM la Dirección de Bachillerato lo “retira” de manera arbitraria. Comunidad escolar inicia protestas

    junio 3, 2025
  • 5

    Banco Azteca es premiado con 25 % de las AFORES: Pedro Hernández de la CNTE

    mayo 30, 2025
  • 6

    La CNTE: autonomía y movilización en el marco de una hegemonía progresista (3/3)

    junio 3, 2025
  • 7

    Daniela Griego, Presidenta Municipal electa de Xalapa. Recibe su constancia de mayoría

    junio 5, 2025
  • 8

    México. Maestros de la CNTE, continúa la huelga

    junio 4, 2025
  • 9

    Primer round: CNTE desnuda carácter neoliberal de la 4T

    junio 7, 2025
  • 10

    ¡Quién miente?, ¿la presidenta o la CNTE?

    junio 1, 2025
  • ¿Cuáles son los elementos de una historieta?

    febrero 15, 2017
  • 12

    AFORES: un robo para los trabajadores. ¿Quiénes son y cuántas cuentas controlan?

    mayo 25, 2025
  • 13

    La CNTE: autonomía y movilización en el marco de una hegemonía progresista (2/3)

    junio 1, 2025
  • 14

    Colombia. Potente huelga contra el boicot de la derecha al referendo de reforma laboral

    junio 5, 2025

Rolando Revagliatti. Argentina

Raúl Allain. Perú

Juan Antonio Guerrero O. México

Vanesa Monserrat. Argentina

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

@2020 - Insurgencia Magisterial

Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
@2020 - Insurgencia Magisterial

Leer también:x

Inteligencia Artificial: Desafíos que plantea su avance

septiembre 20, 2023

Sobre el mito de la inteligencia artificial...

diciembre 14, 2020

«La IA permite una vigilancia total que...

marzo 19, 2025