Top Posts
“Infancias en silencio”, una exposición sobre la violencia...
Franco Berardi: “Gaza es el símbolo de una...
La belleza a costa del sufrimiento o la...
¿Se pueden robar tu identidad con solo tu...
Ciberpatrullaje: colonialismo de datos
Jueza de EU ordena a Argentina entregar la...
La semántica del genocidio
En Veracruz: Docentes y carreteras, el juego extremo.
Divulgación científica y marca profesional
Boletín de prensa: Cierre y remediación inconclusos en...
  • Colectivo Insurgencia Magisterial
Portal Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Espacio principalEspacio secundario

La distopia llegó: pensar las tecnologías del reconocimiento de personas desde la periferia.

por La Redacción febrero 27, 2020
febrero 27, 2020
957
De este ARTÍCULO eres el lector: 398

Por: ANRed. 27/02/2020

En un pasado no tan lejano, les migrantes que buscaban mejores opciones de vida o simplemente sobrevivir fueron recibidos por países contenedores. Hoy, sin embargo, la inteligencia artificial y los algoritmos están siendo utilizados para la segregación social, la criminalización de los reclamos y la estigmatización ad infinitum de movimientos masivos de personas. Huellas digitales, registro del iris de los ojos, medidas de rasgos faciales y acceso a la información de ADN. La distopia ya llegó. Construir, comprender y accionar desde la periferia se hace preciso. Por Florencia Goldsman (Pikara Magazine).

Algoritmos, uso extensivo de bases de datos para el control social, inteligencia artificial y tecnologías biométricas*, ¿cómo se desanuda la complejidad de estos temas? Y, ¿cómo entenderlos desde una perspectiva feminista? Hoy más que nunca tenemos que sacudir la pereza mental que nos deja absortas frente a las pantallas y desandar preguntas como ¿qué intereses están por detrás de los algoritmos?, ¿cuáles son las nuevas injusticias que está creando la tecnología?, ¿qué ocurre cuando existe presión política empujando los desarrollos tecnológicos en el ámbito local?

Desanudemos poco a poco: vivimos en un mundo datificado y la importancia de nuestros datos que generan bases de información inconmensurables se entrecruza con la posibilidad de entender a los datos como un commodity, un elemento capaz de ser vendido como una información central para el monitoreo de las personas.

El tratamiento masivo (y comercial de los datos) tiene como meta pronosticar y modificar el comportamiento humano, es un medio para producir ingresos y, al mismo tiempo, control de mercado. Otro de los usos de las bases de datos es ser la fuente predilecta del desarrollo de procesos de inteligencia artificial, pues esta se define en términos generales como una tecnología que realiza predicciones en función de la detección automática de patrones que aparecen en los datasets.

Enfoquemos los lentes feministas: para analizar críticamente las bases de datos debemos implicarnos en comprender el contexto, quién y de qué manera se generaron dichos datos, cuáles son los posibles errores presentes y cuáles son las partes del fenómeno que el propio recorte obliga a omitir. ¿Quién decide recolectar ciertos datos? ¿Acaso podemos crear bases de datos desde un enfoque ético? ¿Cómo se ve un conjunto de datos sustentable y colaborativo? Algunas respuesta las ensaya Catherine D’Inazio, quien esta por lanzar su libro Datos Feministas (Feminist Data).

¿Acaso podemos crear bases de datos desde un enfoque ético? ¿Cómo se ve un conjunto de datos sustentable y colaborativo?

Mientras tanto, el presente de los programas de desarrollo de inteligencia artificial, que encabezan muchos Estados del mundo, lejos está de un planeamiento orientado a la justicia social y el bienestar humano. Por el contrario, las tomas de decisiones se basan en algoritmos que determinan la repartición de bienes y servicios, incluyendo la educación, la salud pública, la policía, el acceso al empleo y a la vivienda, entre otros. Así lo interpretan las investigadoras Paz Peña y Joana Varón: “Los programas de lucha contra la pobreza están siendo datificados por gobiernos, y se utilizan algoritmos para determinar los beneficios sociales para los pobres y los desempleados”, explican en la Revista América Latina en Movimiento. Se transforma, de esa manera, la experiencia vivida de la pobreza y la vulnerabilidad en datos procesables por máquinas, que impactan sobre la vida y los medios de subsistencia de la ciudadanía implicada.

Datos para el racismo y la segregación de les migrantes

Los casos aterradores de persecución étnica y genocidios que parecían lejanos en la historia, así como expresiones de racismo que se creían casi erradicadas, podrían regresar de la mano de las tecnologías producidas en el norte global, advierten desde el centro de investigación en defensa de los Derechos Digitales R3D. Tanto es así que desde esta organización están analizando de manera profunda las consecuencias sociales de políticas estadounidenses que marcan una declaración de principios. Que Donald Trump busque crear una base de datos con el ADN de personas migrantes es coherente con su racismo evidente, no obstante, nos advierte de la gravedad del asunto.

El problema con el uso de las bases de datos y programas con algoritmos para resultados predictivos, en especial cuando se orienta al “mantenimiento del orden”, es que se ejecutan sin transparencia, rendición de procesos o involucramiento de la colectividad en las decisiones relativas a su aplicación o en la evaluación y supervisión de sus efectos, lo que limita aún mas la detección y corrección de los resultados no deseados.

En todo el mundo y de diversas maneras, es ubicua la tecnología de control y seguimiento de personas. Estas tecnologías pueden explicarse a través del concepto de biometría que, en la definición de Wikipedia, se describe así: “(del griego bios vida y metron medida) es la toma de medidas estandarizadas de los seres vivos o de procesos biológicos. Se llama también biometría al estudio para el reconocimiento inequívoco de personas basado en uno o más rasgos conductuales o físicos intrínsecos”.

Acerca de los desarrollos actuales de colecta de datos genéticos con fines de identificación, vigilancia, o predicción se conoce hoy solo la punta del iceberg. “Lo que sí sabemos, y que es una de las cuestiones que aumentan los riesgos en caso de filtraciones o malos usos de datos genéticos, es que a partir de información biométrica utilizada en la identificación de un individuo es posible identificar también a sus familiares”, detalla Santiago Narváez, investigador de R3D.

Si las tecnologías biométricas consisten en la recopilación, almacenamiento y procesamiento de datos derivados del cuerpo y sus movimientos, una aplicación desproporcionada de este tipo de tecnologías atenta de forma directa contra los derechos a la privacidad, la integridad y la autonomía de las personas. A esto se suman las consecuencias negativas como la discriminación de ciertos grupos sociales, como es el caso de las personas migrantes, debido a los sesgos de diseño e implementación, o la restricción de las libertades -de expresión, movimiento, asociación- de las personas en general mediante un efecto silencioso de autocensura.

«Ejecutar sistemas biométricos en fronteras y pasaportes implica que el Estado detenta un monopolio sobre el movimiento de las personas»

El muro tech que Trump erige en el contexto migratorio tiene por finalidad ser utilizado para denegar la entrada y solicitudes de refugio a familiares de personas identificadas como ‘no deseables’. “Un uso como este de los datos genéticos es la materialización del discurso discriminatorio manejado por la administración de Trump que posiciona a todas las personas migrantes como criminales. Un uso como este de bases de datos genéticas podría utilizarse en el contexto migratorio buscando justificar la discriminación cultural y social al ligar el origen o la relación genética de las personas con la propensión a cometer crímenes”, afirma Narváez.

Ejecutar sistemas biométricos en fronteras y pasaportes implica que el Estado detenta un monopolio sobre el movimiento de las personas. La biometrización de los controles de flujo migratorio y de los controles identitarios contribuye con la creación un mundo de vigilancia en el cual el individuo no es libre de escapar. Además, la simple concentración de grandes cantidades de datos personales pone en riesgo la privacidad de las personas migrantes, en caso de que ocurra una filtración o que las bases sean atacadas.

A esto se suma que las tecnologías de identificación biométrica distan de ser perfectas, su uso actual deriva en identificaciones erróneas. Son conocidos los casos, tanto con el reconocimiento facial como con el seguimiento de huellas digitales, en que la identificación biométrica comporta sesgos que impactan más a personas con rasgos no caucásicos, a personas con edad avanzada y a niñas y niños, lo que ha producido la detención de personas inocentes.

En los Estados Unidos, usadas para estudiar y luego sopesar la potencial reincidencia en crímenes de personas que viven privadas de su libertad, estas tecnologías fortalecieron (basándose en bases sesgadas y ofreciendo resultados erróneos) la actual discriminación que recae sobre personas negras.

Cuerpos diversos detrás de los datos

La exigencia de estos sistemas informáticos de organizar nuestra diversidad humana en una serie finita de categorías define una intención de totalidad universalizante. Dichos programas tienen por objetivo facilitar el trabajo obrero a los algoritmos que hacen la faena de cruzar variables y encontrar similaridades. Para que este universo se pueda organizar, pues, se requiere de un cuerpo referente y categorías que definen lo “normal” y lo “anormal”. ¿Diversas identidades? ¿Transiciones de sexo/género? ** Sintax Error**.

Entonces, ¿cuál es el cuerpo-referencia para los sistemas que financian nuestros Estados? La investigadora Marianne Díaz señala que hay que poner en evidencia los potenciales efectos de discriminación de poblaciones minoritarias (personas con discapacidad, personas transgénero, miembros de religiones minoritarias) “a causa de la naturaleza misma de los sistemas biométricos e identitarios en general, que buscan clasificar al individuo como parte de una taxonomía predefinida, dejando fuera a todo aquel que no encaje correctamente en las categorías establecidas”.

Los datos biométricos son datos personales y, por tanto, deberían estar protegidos por una serie de leyes pensadas para evitar su uso desproporcionado. Esto es: protegerlos de que sean utilizados sin control y, a la vez, que las personas titulares tengan los medios para tomar medidas que reparen daños o usos abusivos de sus datos. “Dichas leyes imponen principios que deben de seguirse en el tratamiento de datos que componen cuestiones como la necesidad de obtención de consentimiento para el tratamiento, la obligación de ofrecer información completa a los titulares para que estos entiendan cómo serán tratados sus datos personales, con que finalidad y puedan decidir si quieren que sean tratados así. También les provee a los titulares cuestiones como la cancelación del tratamiento de sus datos personales”, detalla Narváez. Las legislaciones desactualizadas y la falta de consideración de los datos biométricos como datos sensibles componen el cuadro latinoamericano. En Europa, la Ley de protección de datos europea (General Data Protection Regulation) sentó las bases para un debate profundo sobre derechos y obligaciones sobre los datos de las personas.

Consultada por Pikara Magazine, la investigadora e integrante de la fundación Vía Libre Carolina Martínez Elebi señala que podamos comenzar a rasgar y abrir una brecha en este avance hacia un futuro menos distópico. “No puedo hacer mucho para que me devuelvan aquello que como individuo publiqué o los datos que ya di. Lo que puedo hacer es a futuro, como docente, madre, amiga, es no seguir divulgando los datos de otras personas. Abogar no solo por el respeto hacia el uso que se hace de mis datos sino también de las demás personas”.

Emprender estos debates, traducir información compleja, inventar usos radicales de tecnologías que instalan más opresión. “Comenzar la transmisión de conocimiento a generaciones mas jóvenes para que puedan ejecutar un cambio. Involucrar a niños y niñas y adolescentes en usos mas críticos de las tecnologías”, aporta Martínez Elebi. Cuestionemos el uso que damos a las tecnologías a diario, construyamos una resistencia digital que crezca desde la periferia.

*procesamiento de datos derivados del cuerpo y sus movimientos

LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ

Fotografía: ANRed.

Compartir 0 FacebookTwitterWhatsapp
La Redacción

noticia anterior
Izquierdas en Latinoamérica hoy.
noticia siguiente
Feminicidios, entre el machismo y la indiferencia gubernamental.

También le podría interesar

Sus esposos trabajaron en Estados Unidos antes de...

julio 3, 2025

Octavia Butler, la visionaria que ennegreció la ciencia...

junio 28, 2025

Periodismo e inteligencia artificial: ¿cómo incide la IA...

junio 27, 2025

Visitantes en este momento:

1.249 Usuarios En linea
Usuarios: 629 Invitados,620 Bots

Síguenos en nuestras Redes Sociales

  • Bluesky
  • Mastodon
  • Telegram
  • WhatsApp

Blog: Perspectivas comunistas

Gracias por informarte con nosotros…

Desde el Plantón magisterial en el Zócalo de la CDMX

Rompe el cerco informativo…

Blog de la Columna CORTOCIRCUITOS

Nuestros grupos de difusión

Artículos publicados por mes

Síguenos en Facebook

Síguenos en Facebook

Artículos por AUTORES

Artículos publicados por FECHA

julio 2025
L M X J V S D
 123456
78910111213
14151617181920
21222324252627
28293031  
« Jun    

Artículos más leídos esta semana

  • 1

    Tras descuento, maestra de la CNTE recibe $0.99 pesos de salario

    julio 4, 2025
  • 2

    ¡TODOS SOMOS ESTEBAN! Efectos de las reformas neoliberales en el trabajo docente

    julio 3, 2025
  • 3

    Periódico: El Zenzontle (258)

    julio 3, 2025
  • 4

    “La táctica en las redes es clara: bombardearnos con mercancía estúpida y pesimista para que nada cambie”

    julio 4, 2025
  • 5

    Minera Equinox Gold demandó a Carrizalillo y a 125 ejidatarios por “despojo”

    julio 3, 2025
  • 6

    TEMPORADA DE ENGAÑOS

    junio 24, 2025
  • ¿Cuáles son los elementos de una historieta?

    febrero 15, 2017
  • 8

    Represión en la Universidad Ibn Zohr: amenazan con expulsar a estudiantes saharauis por manifestarse por la independencia

    julio 3, 2025
  • 9

    Trump y Cuba: ¿regreso a la guerra fría?

    julio 4, 2025
  • 10

    10 soluciones para habitar Internet de otra manera

    julio 3, 2025
  • 11

    Comunidades mayas rechazan planta de Heineken en Yucatán

    julio 3, 2025
  • 12

    UN MISTERIO Y UNA EPIFANÍA DE DUSSEL.

    julio 1, 2025
  • 13

    En Veracruz: Docentes y carreteras, el juego extremo.

    julio 5, 2025
  • 14

    Acercamiento a FAUSTO de Johann Wolfgang von Goethe

    junio 30, 2025

Rolando Revagliatti. Argentina

Raúl Allain. Perú

Juan Antonio Guerrero O. México

Vanesa Monserrat. Argentina

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

@2020 - Insurgencia Magisterial

Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
@2020 - Insurgencia Magisterial

Leer también:x

«Las que siguen siendo perseguidas son las...

junio 7, 2022

Crítica y Debates Contemporáneos [Izquierda y Feminismo]

octubre 3, 2018

“Cooperativismo o Barbarie” por I.A.

abril 12, 2025