Top Posts
«La existencia, como la rosa, acontece sin porqué»
¿Una nueva fase del capitalismo o la lógica...
“Hay intereses del Gobierno y de empresas para...
Analista chino: “Contrarrestar la hegemonía de EE.UU. seguirá...
Sociedad civil, la última frontera hacia el totalitarismo...
Guardianes del mañana: Humanidad 3.0
La distopía de Nauru
¿Hemos entrado en la era de la “geoeconomía”?
Redadas migratorias en EEUU: nacionalismo Trump vs el...
El dedo que señala el bloqueo y la...
  • Colectivo Insurgencia Magisterial
Portal Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Espacio principalEspacio secundario

La distopia llegó: pensar las tecnologías del reconocimiento de personas desde la periferia.

por La Redacción febrero 27, 2020
febrero 27, 2020
955

Por: ANRed. 27/02/2020

En un pasado no tan lejano, les migrantes que buscaban mejores opciones de vida o simplemente sobrevivir fueron recibidos por países contenedores. Hoy, sin embargo, la inteligencia artificial y los algoritmos están siendo utilizados para la segregación social, la criminalización de los reclamos y la estigmatización ad infinitum de movimientos masivos de personas. Huellas digitales, registro del iris de los ojos, medidas de rasgos faciales y acceso a la información de ADN. La distopia ya llegó. Construir, comprender y accionar desde la periferia se hace preciso. Por Florencia Goldsman (Pikara Magazine).

Algoritmos, uso extensivo de bases de datos para el control social, inteligencia artificial y tecnologías biométricas*, ¿cómo se desanuda la complejidad de estos temas? Y, ¿cómo entenderlos desde una perspectiva feminista? Hoy más que nunca tenemos que sacudir la pereza mental que nos deja absortas frente a las pantallas y desandar preguntas como ¿qué intereses están por detrás de los algoritmos?, ¿cuáles son las nuevas injusticias que está creando la tecnología?, ¿qué ocurre cuando existe presión política empujando los desarrollos tecnológicos en el ámbito local?

Desanudemos poco a poco: vivimos en un mundo datificado y la importancia de nuestros datos que generan bases de información inconmensurables se entrecruza con la posibilidad de entender a los datos como un commodity, un elemento capaz de ser vendido como una información central para el monitoreo de las personas.

El tratamiento masivo (y comercial de los datos) tiene como meta pronosticar y modificar el comportamiento humano, es un medio para producir ingresos y, al mismo tiempo, control de mercado. Otro de los usos de las bases de datos es ser la fuente predilecta del desarrollo de procesos de inteligencia artificial, pues esta se define en términos generales como una tecnología que realiza predicciones en función de la detección automática de patrones que aparecen en los datasets.

Enfoquemos los lentes feministas: para analizar críticamente las bases de datos debemos implicarnos en comprender el contexto, quién y de qué manera se generaron dichos datos, cuáles son los posibles errores presentes y cuáles son las partes del fenómeno que el propio recorte obliga a omitir. ¿Quién decide recolectar ciertos datos? ¿Acaso podemos crear bases de datos desde un enfoque ético? ¿Cómo se ve un conjunto de datos sustentable y colaborativo? Algunas respuesta las ensaya Catherine D’Inazio, quien esta por lanzar su libro Datos Feministas (Feminist Data).

¿Acaso podemos crear bases de datos desde un enfoque ético? ¿Cómo se ve un conjunto de datos sustentable y colaborativo?

Mientras tanto, el presente de los programas de desarrollo de inteligencia artificial, que encabezan muchos Estados del mundo, lejos está de un planeamiento orientado a la justicia social y el bienestar humano. Por el contrario, las tomas de decisiones se basan en algoritmos que determinan la repartición de bienes y servicios, incluyendo la educación, la salud pública, la policía, el acceso al empleo y a la vivienda, entre otros. Así lo interpretan las investigadoras Paz Peña y Joana Varón: “Los programas de lucha contra la pobreza están siendo datificados por gobiernos, y se utilizan algoritmos para determinar los beneficios sociales para los pobres y los desempleados”, explican en la Revista América Latina en Movimiento. Se transforma, de esa manera, la experiencia vivida de la pobreza y la vulnerabilidad en datos procesables por máquinas, que impactan sobre la vida y los medios de subsistencia de la ciudadanía implicada.

Datos para el racismo y la segregación de les migrantes

Los casos aterradores de persecución étnica y genocidios que parecían lejanos en la historia, así como expresiones de racismo que se creían casi erradicadas, podrían regresar de la mano de las tecnologías producidas en el norte global, advierten desde el centro de investigación en defensa de los Derechos Digitales R3D. Tanto es así que desde esta organización están analizando de manera profunda las consecuencias sociales de políticas estadounidenses que marcan una declaración de principios. Que Donald Trump busque crear una base de datos con el ADN de personas migrantes es coherente con su racismo evidente, no obstante, nos advierte de la gravedad del asunto.

El problema con el uso de las bases de datos y programas con algoritmos para resultados predictivos, en especial cuando se orienta al “mantenimiento del orden”, es que se ejecutan sin transparencia, rendición de procesos o involucramiento de la colectividad en las decisiones relativas a su aplicación o en la evaluación y supervisión de sus efectos, lo que limita aún mas la detección y corrección de los resultados no deseados.

En todo el mundo y de diversas maneras, es ubicua la tecnología de control y seguimiento de personas. Estas tecnologías pueden explicarse a través del concepto de biometría que, en la definición de Wikipedia, se describe así: “(del griego bios vida y metron medida) es la toma de medidas estandarizadas de los seres vivos o de procesos biológicos. Se llama también biometría al estudio para el reconocimiento inequívoco de personas basado en uno o más rasgos conductuales o físicos intrínsecos”.

Acerca de los desarrollos actuales de colecta de datos genéticos con fines de identificación, vigilancia, o predicción se conoce hoy solo la punta del iceberg. “Lo que sí sabemos, y que es una de las cuestiones que aumentan los riesgos en caso de filtraciones o malos usos de datos genéticos, es que a partir de información biométrica utilizada en la identificación de un individuo es posible identificar también a sus familiares”, detalla Santiago Narváez, investigador de R3D.

Si las tecnologías biométricas consisten en la recopilación, almacenamiento y procesamiento de datos derivados del cuerpo y sus movimientos, una aplicación desproporcionada de este tipo de tecnologías atenta de forma directa contra los derechos a la privacidad, la integridad y la autonomía de las personas. A esto se suman las consecuencias negativas como la discriminación de ciertos grupos sociales, como es el caso de las personas migrantes, debido a los sesgos de diseño e implementación, o la restricción de las libertades -de expresión, movimiento, asociación- de las personas en general mediante un efecto silencioso de autocensura.

«Ejecutar sistemas biométricos en fronteras y pasaportes implica que el Estado detenta un monopolio sobre el movimiento de las personas»

El muro tech que Trump erige en el contexto migratorio tiene por finalidad ser utilizado para denegar la entrada y solicitudes de refugio a familiares de personas identificadas como ‘no deseables’. “Un uso como este de los datos genéticos es la materialización del discurso discriminatorio manejado por la administración de Trump que posiciona a todas las personas migrantes como criminales. Un uso como este de bases de datos genéticas podría utilizarse en el contexto migratorio buscando justificar la discriminación cultural y social al ligar el origen o la relación genética de las personas con la propensión a cometer crímenes”, afirma Narváez.

Ejecutar sistemas biométricos en fronteras y pasaportes implica que el Estado detenta un monopolio sobre el movimiento de las personas. La biometrización de los controles de flujo migratorio y de los controles identitarios contribuye con la creación un mundo de vigilancia en el cual el individuo no es libre de escapar. Además, la simple concentración de grandes cantidades de datos personales pone en riesgo la privacidad de las personas migrantes, en caso de que ocurra una filtración o que las bases sean atacadas.

A esto se suma que las tecnologías de identificación biométrica distan de ser perfectas, su uso actual deriva en identificaciones erróneas. Son conocidos los casos, tanto con el reconocimiento facial como con el seguimiento de huellas digitales, en que la identificación biométrica comporta sesgos que impactan más a personas con rasgos no caucásicos, a personas con edad avanzada y a niñas y niños, lo que ha producido la detención de personas inocentes.

En los Estados Unidos, usadas para estudiar y luego sopesar la potencial reincidencia en crímenes de personas que viven privadas de su libertad, estas tecnologías fortalecieron (basándose en bases sesgadas y ofreciendo resultados erróneos) la actual discriminación que recae sobre personas negras.

Cuerpos diversos detrás de los datos

La exigencia de estos sistemas informáticos de organizar nuestra diversidad humana en una serie finita de categorías define una intención de totalidad universalizante. Dichos programas tienen por objetivo facilitar el trabajo obrero a los algoritmos que hacen la faena de cruzar variables y encontrar similaridades. Para que este universo se pueda organizar, pues, se requiere de un cuerpo referente y categorías que definen lo “normal” y lo “anormal”. ¿Diversas identidades? ¿Transiciones de sexo/género? ** Sintax Error**.

Entonces, ¿cuál es el cuerpo-referencia para los sistemas que financian nuestros Estados? La investigadora Marianne Díaz señala que hay que poner en evidencia los potenciales efectos de discriminación de poblaciones minoritarias (personas con discapacidad, personas transgénero, miembros de religiones minoritarias) “a causa de la naturaleza misma de los sistemas biométricos e identitarios en general, que buscan clasificar al individuo como parte de una taxonomía predefinida, dejando fuera a todo aquel que no encaje correctamente en las categorías establecidas”.

Los datos biométricos son datos personales y, por tanto, deberían estar protegidos por una serie de leyes pensadas para evitar su uso desproporcionado. Esto es: protegerlos de que sean utilizados sin control y, a la vez, que las personas titulares tengan los medios para tomar medidas que reparen daños o usos abusivos de sus datos. “Dichas leyes imponen principios que deben de seguirse en el tratamiento de datos que componen cuestiones como la necesidad de obtención de consentimiento para el tratamiento, la obligación de ofrecer información completa a los titulares para que estos entiendan cómo serán tratados sus datos personales, con que finalidad y puedan decidir si quieren que sean tratados así. También les provee a los titulares cuestiones como la cancelación del tratamiento de sus datos personales”, detalla Narváez. Las legislaciones desactualizadas y la falta de consideración de los datos biométricos como datos sensibles componen el cuadro latinoamericano. En Europa, la Ley de protección de datos europea (General Data Protection Regulation) sentó las bases para un debate profundo sobre derechos y obligaciones sobre los datos de las personas.

Consultada por Pikara Magazine, la investigadora e integrante de la fundación Vía Libre Carolina Martínez Elebi señala que podamos comenzar a rasgar y abrir una brecha en este avance hacia un futuro menos distópico. “No puedo hacer mucho para que me devuelvan aquello que como individuo publiqué o los datos que ya di. Lo que puedo hacer es a futuro, como docente, madre, amiga, es no seguir divulgando los datos de otras personas. Abogar no solo por el respeto hacia el uso que se hace de mis datos sino también de las demás personas”.

Emprender estos debates, traducir información compleja, inventar usos radicales de tecnologías que instalan más opresión. “Comenzar la transmisión de conocimiento a generaciones mas jóvenes para que puedan ejecutar un cambio. Involucrar a niños y niñas y adolescentes en usos mas críticos de las tecnologías”, aporta Martínez Elebi. Cuestionemos el uso que damos a las tecnologías a diario, construyamos una resistencia digital que crezca desde la periferia.

*procesamiento de datos derivados del cuerpo y sus movimientos

LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ

Fotografía: ANRed.

Compartir 0 FacebookTwitterWhatsapp
La Redacción

noticia anterior
Izquierdas en Latinoamérica hoy.
noticia siguiente
Feminicidios, entre el machismo y la indiferencia gubernamental.

También le podría interesar

Guardianes del mañana: Humanidad 3.0

junio 12, 2025

¡No en nuestro nombre! Manifiesto de feministas contra...

junio 11, 2025

Redadas migratorias en California: abaratar la fuerza de...

junio 10, 2025

Visitantes en este momento:

300 Usuarios En linea
Usuarios: 28 Invitados,272 Bots

Blog: Perspectivas comunistas

Desde el Plantón magisterial en el Zócalo de la CDMX

Nuestras redes sociales

Blog de la Columna CORTOCIRCUITOS

Nuestros grupos de difusión

Artículos publicados por mes

Síguenos en Facebook

Síguenos en Facebook

Artículos por AUTORES

Artículos publicados por FECHA

junio 2025
L M X J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« May    

Artículos más leídos esta semana

  • 1

    Del Acuerdo Educativo Nacional al Plan de estudios 2022.

    septiembre 13, 2022
  • 2

    Redadas migratorias en EEUU: nacionalismo Trump vs el deep state

    junio 12, 2025
  • 3

    La revolución del amor vs la cobardía reaccionaria

    septiembre 27, 2024
  • 4

    Pago de seguros institucionales: burda simulación de Cuitláhuac.

    octubre 13, 2024
  • 5

    Incongruencias de la NEM de Marx Arriaga: luchar contra el neoliberalismo promoviendo un concurso de Círculos de estudio sobre Freire, con premios de 10 mil pesos a los ganadores y con mecanismos de exclusión

    septiembre 25, 2024
  • 6

    Milei, una bomba de tiempo.

    diciembre 3, 2023
  • 7

    “Érase una vez la colonización”: Carlos Vives cree que la conquista fue una película de Disney

    septiembre 19, 2024
  • 8

    DESPUÉS DEL DÍA 1, ¿QUÉ ES LO QUE VIENE PARA EDUCACIÓN?

    octubre 4, 2024
  • 9

    Ekaitz Cancela, autor de Utopías digitales: Imaginar el fin del capitalismo: “El diseño de la tecnología no es asunto exclusivo de las startups con sede en Silicon Valley”

    septiembre 17, 2024
  • 10

    La Casa de los Famosos: ¿es posible no mirar?

    septiembre 19, 2024
  • 11

    Luce, la polémica “mascota” con que El Vaticano busca acercarse a los jóvenes

    noviembre 16, 2024
  • 12

    REDALYC se deslinda de “Artículo” con denuncia de “plagio”

    noviembre 14, 2023
  • 13

    La verdad sobre los 43 tras los muros del 27 batallón del ejército

    septiembre 24, 2024
  • 14

    PESO PLUMA EN LA ESCUELA

    mayo 23, 2023

Rolando Revagliatti. Argentina

Raúl Allain. Perú

Juan Antonio Guerrero O. México

Vanesa Monserrat. Argentina

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

@2020 - Insurgencia Magisterial

Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
@2020 - Insurgencia Magisterial

Leer también:x

Yo Pienso, así fue la conversación con...

enero 21, 2022

Esas potencias de carne y hueso

marzo 9, 2023

Inteligencia artificial: El genio fuera de la...

marzo 8, 2025