Top Posts
Colombia. Potente huelga contra el boicot de la...
¿FobAfore? (vídeo)
Registran nueve puntos de bloqueo en Cochabamba por...
Argentina. Un mundo sin sindicatos: el sueño húmedo...
“Por nuestros derechos laborales, hasta la victoria”
Comunicado: Gobernador del Estado de Zacatecas, Presidente Municipal...
Es hora de enviar a la OTAN al...
Argentina. ¿Anhelar una sana administración de justicia es...
Carrizalillo, 60 días de resistencia frente a la...
Daniela Griego, Presidenta Municipal electa de Xalapa. Recibe...
  • Colectivo Insurgencia Magisterial
Portal Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Espacio principalEspacio secundario

Deepfakes de audio y engaños con IA amenazan las elecciones en el mundo

por RedaccionA junio 2, 2024
junio 2, 2024
536

Por: Dren Gërguri. 02/05/2024

Contenido generado con IA también tendrá gran impacto en nuestra vida social

Hoy en día, mediante un sencillo software de inteligencia artificial (IA) de fácil acceso, casi todos pueden crear grabaciones de audio o de vídeo de famosos o personas comunes que actúan y hablan de formas que nunca lo habrían hecho. Se debe proteger en profundidad los derechos de las personas cuyas voces e imágenes son objeto de apropiación. Las grandes empresas tecnológicas se han unido en un intento histórico de detener el uso inadecuado de la IA en las próximas elecciones en todo el mundo.

Los deepfakes se avanzando, y cada vez tienen mejor calidad, son más convincentes y se acercan más a la realidad. Con la gran cantidad de elecciones en el mundo en 2024, crece la preocupación por la inclusión de la inteligencia artificial en los procesos electorales, lo que puede comprometer la integridad de las elecciones. La manipulación de votos por medio de deepfakes es uno de los debates más importantes en muchos países que se preparan para las elecciones. Cerca de 4000 millones de personas acudirán a las urnas en más de 50 países. Académicos, periodistas y políticos han expresado su preocupación respecto al uso del contenido generado con IA en operaciones de influencia política.

No obstante, el contenido generado con IA también tendrá gran impacto en nuestra vida social. Recientemente, se han relacionado casos virales con celebridades, pero, dada a la rapidez con la que están evolucionando los deepfakes, habrá videos deepfakes de personas comunes y corrientes que no son celebridades o políticos y que no despiertan el interés del público por sus trabajos o actividades. Esto será una amenaza grave para la sociedad, por tanto, es importante contar con iniciativas colectivas contra los engaños generados con la IA.

Estudios de caso de deepfakes recientes

Los deepfakes, o las manipulaciones no hechas con IA denominadas «cheapfakes«, no son nuevos y existen desde hace tiempo. Sin embargo, con el impacto que tiene ChatGPT para acercar la IA a un público más amplio, en el último año, se han invertido miles de millones de dólares en empresas de IA. El avance de programas que faciliten su producción, especialmente los deepfakes, ha multiplicado el uso de la inteligencia artificial para crear deepfakes que se dirigen al público. Hoy en día, además de la manipulación de video, ha habido casos en que se han creado audios deepfakes, lo que es incluso más sencillo de hacer.

El caso del audio deepfake del presidente de Estados Unidos, Joe Biden, que se difundió en Nuevo Hampshire y que incitó a las personas a no votar en las primarias del estado, llegó a más 20 000 personas. Steve Kramer, que estuvo detrás de esta manipulación y que pagó 150 dólares para crearlo, declaró que lo hizo como un acto de desobediencia civil para llamar la atención a los riesgos relacionados con la inteligencia artificial en la política y a la necesidad de una regulación de la IA.

Otro gran ejemplo que demostró cuán peligrosos son los deepfakes para la democracia es el audio deepfake del político eslovaco Michal Simecka. Un audio de voz se publicó en Facebook 48 horas antes de las elecciones de Eslovaquia, en el que aparentemente Simecka hablaba de fraude electoral con la periodista Monika Todova. Asimismo, el caso que pudo tener consecuencias políticas y sociales graves es el del audio deepfake del alcalde de Londres, Sadiq Khan. A principios de noviembre de 2023, el audio de Khan se hizo viral cuando parecía estar insultando el Día del Armisticio (celebración para conmemorar el final de la Primera Guerra Mundial) y exigiendo que se debía dar más importancia a las marchas a favor de Palestina.

Además de los audios deepfakes que tienen a políticos como protagonistas, los videos deepfakes de celebridades continúan circulando por internet. Por ejemplo, hay videos deepfakes del famoso actor de Hollywood Tom Hanks, en el que una versión del actor hecha con IA promociona un plan dental, y también del famoso youtubero estadounidense MrBeast, que parecía estar organizando “el sorteo de un iPhone 15 más grande del mundo”.

También, se hicieron virales las imágenes deepfakes de la cantante Taylor Swift, que se publicaron a principio de este año en diversas plataformas de redes sociales como X (antes Twitter), Instagram, Facebook y Reddit. Antes de que lo retiraran de X, una de las imágenes falsificadas de Swift se vio más de 45 millones de veces en las casi 17 horas que estuvo en la plataforma.

Iniciativa colectiva contra los engaños generados con la IA

El “Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024”, que se anunció en la Conferencia de Seguridad de Múnich, cuenta con 20 grandes compañías, como Adobe, Google, Microsoft, OpenAI, Snap Inc. y Meta, que se comprometen a usar tecnología innovadora para detectar y contrarrestar contenido perjudicial generado con IA que busca engañar a los votantes, y también para apoyar los esfuerzos para fomentar el conocimiento público, la educación mediática y la resiliencia de toda la sociedad. Es la primera vez que 20 compañías se unen contra los engaños generados con IA.

Las compañías participantes acordaron ocho compromisos específicos para mitigar los riesgos relacionados con el contenido electoral engañoso de IA. Esta iniciativa entre el sector tecnológico y la IA tiene como objetivo abordar las imágenes, los videos y los audios generados con IA que puedan influenciar a los votantes respecto a los candidatos, los funcionarios electorales y el proceso de votación. No obstante, no exige que se prohíba por completo este contenido.

The Bridge

Este articulo es parte de The Bridge (El puente), presentacion con opiniones, comentario e investigacion desde la perspectiva singular de la Comunidad de Global Voices. · Todos los articulos

GV Advox

Este articulo es de GV Advox, un proyecto de Global Voices con su propio sitio web, en pro de la defensa de la libertad de expresion y contra la censura en internet. · Todos los articulos

LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ

Fotografía: Global voices. Dalle-3

Compartir 0 FacebookTwitterWhatsapp
RedaccionA

noticia anterior
El negocio de la inteligencia artificial amenaza con convertir la ciencia en pseudociencia
noticia siguiente
Medios de comunicación y feminicidio: cuando se perpetúan estereotipos dañinos

También le podría interesar

Con la IA, uno de cada cuatro empleos...

junio 3, 2025

La IA también sabe persuadir mejor que las...

mayo 31, 2025

Claude Opus 4, la nueva IA de Anthropic,...

mayo 29, 2025

Visitantes en este momento:

833 Usuarios En linea
Usuarios: 336 Invitados,497 Bots

Blog: Perspectivas comunistas

Desde el Plantón magisterial en el Zócalo de la CDMX

Nuestras redes sociales

Blog de la Columna CORTOCIRCUITOS

Nuestros grupos de difusión

Artículos publicados por mes

Síguenos en Facebook

Síguenos en Facebook

Artículos por AUTORES

Artículos publicados por FECHA

junio 2025
L M X J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« May    

Artículos más leídos esta semana

  • 1

    La primavera no se alquila: dignidad magisterial y respeto a la historia

    mayo 30, 2025
  • 2

    Ante la ratificación del Director del Colegio Preparatorio de Xalapa por parte de la USICAMM la Dirección de Bachillerato lo “retira” de manera arbitraria. Comunidad escolar inicia protestas

    junio 3, 2025
  • 3

    Alto al ataque mediático contra la CNTE, magisterio, organizaciones y sindicatos

    junio 2, 2025
  • 4

    La CNTE: autonomía y movilización en el marco de una hegemonía progresista (2/3)

    junio 1, 2025
  • 5

    Banco Azteca es premiado con 25 % de las AFORES: Pedro Hernández de la CNTE

    mayo 30, 2025
  • 6

    La CNTE: autonomía y movilización en el marco de una hegemonía progresista (3/3)

    junio 3, 2025
  • 7

    ¡Quién miente?, ¿la presidenta o la CNTE?

    junio 1, 2025
  • 8

    EL PROBLEMA DE LA USICAMM ES… ¡TODO!

    mayo 31, 2025
  • 9

    Los Brics en la mira

    junio 4, 2025
  • 10

    Daniela Griego, Presidenta Municipal electa de Xalapa. Recibe su constancia de mayoría

    junio 5, 2025
  • 11

    AFORES: un robo para los trabajadores. ¿Quiénes son y cuántas cuentas controlan?

    mayo 25, 2025
  • 12

    México. Maestros de la CNTE, continúa la huelga

    junio 4, 2025
  • 13

    Pensamiento Crítico. Bolivia. Rafael Bautista: ¿cómo se oferta un país a los buitres!

    junio 3, 2025
  • 14

    Bolivia en carrera electoral, sin Evo Morales

    junio 4, 2025

Rolando Revagliatti. Argentina

Raúl Allain. Perú

Juan Antonio Guerrero O. México

Vanesa Monserrat. Argentina

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

@2020 - Insurgencia Magisterial

Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
@2020 - Insurgencia Magisterial

Leer también:x

N. Katherine Hayles: «Necesitamos una visión más...

marzo 1, 2024

El filósofo Luciano Floridi advierte sobre el...

febrero 8, 2025

LA INTELIGENCIA ARTIFICIAL COMO ANSIOLÍTICO

julio 19, 2023