Top Posts
Un balance de la lucha de la CNTE:...
Asamblea de Daniel Noboa aprueba instalación de bases...
La (des)nazificación de Alemania
El sistema de castas y los dilemas de...
AgroALBA arrancó en Venezuela: estrategias solidarias para producir...
¡No en nuestro nombre! Manifiesto de feministas contra...
Presidente Maduro propone Escuela de Agricultura Regenerativa para...
EE. UU. vs. China: ¿quién manda en el comercio...
Entre el wokeismo y el populismo de derecha
PALESTINA Y LA SOLIDARIDAD INTERNACIONAL
  • Colectivo Insurgencia Magisterial
Portal Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Espacio principalEspacio secundario

Proliferan deepfakes de voz de famosos, con Facebook e Instagram como canales favoritos

por RedaccionA febrero 20, 2024
febrero 20, 2024
1,6K

Por: Cronica viva. 20/02/2024

Plataformas y redes sociales como Facebook e Instagram se han llenado en los últimos meses de los denominados ‘deepfakes‘ de voz de personas famosas, que respaldan sorteos y concursos fraudulentos, juegos de azar y oportunidades de inversión para intentar engañar a los internautas.

Los ‘deepfakes’ de voz se generan a través de herramientas de Inteligencia Artificial (IA) para crear copias sintéticas de la voz de otro individuo. Esto es posible porque dicha tecnología emplea técnicas de aprendizaje profundo para replicar el habla de una persona con un audio realista y convincente, debido a sus similitudes con la voz humana.

Frente a las voces sintéticas generadas íntegramente por un ordenador que utiliza sistemas de conversión de texto a voz, la clonación de voces usa la voz real de otro individuo para producir una interpretación realista del original.

Crear un ‘deepfake’ es relativamente sencillo, ya que solo necesario recopilar muestras de la voz humana que se quiere clonar, ya sea a través del audio de un vídeo o mediante una grabación física de alguien hablando.

Una vez se ha recogido esa muestra, el ‘software’ de clonación de voz la analiza para identificar las características de la voz, como el tono, el ritmo o el volumen, entre otras características vocales. Todos estos datos se utilizan para entrenar un modelo de aprendizaje automático.

Este proceso implica introducir los datos de voz en un algoritmo que sea capaz de aprender a imitar la voz original. Admite, además, la adición de más datos complementarios a este modelo y el ajuste de diferentes parámetros para refinar el ‘deepfake’.

Taylor Swift vende derechos del filme ‘The Eras Tour’ en más de 75 millones de dólares

https://www.cronicaviva.com.pe/taylor-swift-vende-derechos-del-filme-the-eras-tour-en-mas-de-75-millones-de-dolares/embed/#?secret=idOpIdR2FI#?secret=sEEAA9jZoO

Si bien la clonación de voz tiene muchos usos legítimos, como la creación de asistentes de voz personalizados para el sector de la salud o para la educación, ya que se puede utilizar para ayudar a personas con problemas del habla, esta tecnología se usa también para actividades fraudulentas.

Entre algunas de las más dañinas se encuentran el ciberacoso, el chantaje o la creación de ‘deepfakes’ para manipular, engañar o dañar financieramente a otros usuarios, tal y como explica Bitdefender en su blog.

Las plataformas y redes sociales se han convertido en el canal de difusión de buena parte de estas estafas, debido a que millones de personas las utilizan a diario y cualquier campaña maliciosa puede tener un gran alcance.

Esto es algo que preocupa especialmente a sus usuarios, ya que más del 57 por ciento asegura sentirse intranquilo por su exposición ante esta tendencia creciente, como se desprende de un reciente sondeo realizado por los responsables de las soluciones de ‘software’ Voicebot y Pindrop.

La compañía de ciberseguridad ha hecho un análisis de este fenómeno y se ha centrado principalmente en los ‘deepfakes’ de voz que circulan por Facebook, plataforma desarrollada por Meta, aunque no es la única en la que proliferan estos ataques, ya que Instagram, Audience Network y Messenger se encuentran entre las principales plataformas distribuidoras de estas estafas.

En primer lugar, la firma ha determinado que la mayor parte del contenido fraudulento descubierto empleó generadores de voz de IA para clonar las voces de personajes famosos, como Elon Musk, Oprah Winfrey, Mr. Beast, Kylie Jenner, Vin Diesel, Jennifer Aniston o Tiger Woods.

Los ciberdelincuentes usaron la imagen de estas personas para promover diferentes engaños mediante vídeos publicitarios con una duración inferior a 30 segundos. En ellos, se ofertaban regalos de productos de alto coste, como el último modelo de iPhone, MacBooks, aspiradoras de Dyson e, incluso, asientos de coche para bebés de la marca Chicco, por un precio simbólico.

La compañía de ciberseguridad también ha indicado que se utilizaron los ‘deepfakes’ para promover inversiones y participaciones en juegos de azar, y que estas estafas llegaron a las víctimas a través de anuncios fraudulentos de la red social.

Tik Tok: Universal Music retira su música tras no alcanzar acuerdo con la plataforma

https://www.cronicaviva.com.pe/tik-tok-universal-music-retira-su-musica-tras-no-alcanzar-acuerdo-con-la-plataforma/embed/#?secret=LTfmsA1C89#?secret=F6SYQIFk7L

Para sumar víctimas, los estafadores llevaron a cabo el método tradicional de engaño, consistente en prometer un premio a los cien, mil o 10.000 primeros participantes o bien el retorno de estas inversiones multiplicado por cinco.

Una vez las víctimas hacen clic sobre el enlace falso, se las redirigía a una página web fraudulenta en la que se promociona el sorteo y donde se encumera una cantidad limitada de dispositivos y productos restantes.

Tras completar una encuesta falsa, en la que se preguntaba a los usuarios si eran mayores de edad, entre otras cuestiones, se presentaba un formulario que el usuario debía cumplimentar, introduciendo sus datos personales -nombre completo, correo electrónico, número de teléfono, etc.- y bancarios para pagar el producto a una cantidad generalmente mayor a la inicialmente indicada.

FÁCILES DE IDENTIFICAR

Bitdefender ha aclarado que, de acuerdo al análisis que ha realizado de los ‘deepfakes de voz en Facebook, los grupos demográficos más afectados por esta clase de fraudes de voz son los que tienen edades entre los 18 y los 65 años.

Con ello, ha reconocido que, a pesar de que se trata de un método cada vez más sofisticado, la mayoría de los vídeos y suplantaciones de voz analizadas para este estudio “están mal ejecutados” e incluyen indicios “muy visibles y anomalías visuales” que permiten determinar que se trata de una estafa.

Entre algunas de estas evidencias, ha mencionado la más habitual, que son los movimientos de labios que no coinciden con lo que se está diciendo o las imágenes distorsionadas, entre otros ejemplos.

CÓMO PROTEGERSE DE ESTAS ESTAFAS

Según los cálculos de la firma de ciberseguridad, las estafas ‘deepfake’ de voz se dirigieron al menos a un millón de usuarios estadounidenses y europeos, en países como España, Rumanía, Francia, Austria, Bélgica, Portugal, Polonia, Suecia, Holanda, Chipre y Dinamarca. De hecho, un solo anuncio llegó a 100.000 usuarios.

Taylor Switf: bloquean búsquedas por difusión de imágenes manipuladas

https://www.cronicaviva.com.pe/taylor-switf-bloquean-busquedas-por-difusion-de-imagenes-manipuladas/embed/#?secret=tAv0QLY1RQ#?secret=8Ru1oYP1uI

Para evitar esta clase de estafas, Bitdefender ha comentado que siempre se debe verificar la calidad y la consistencia de la voz, debido a que las voces clonadas suelen tener tonos inusuales, ser estáticas o presentar inconsistencias en los patrones del habla.

También se debe escuchar atentamente el sonido del vídeo, para detectar si hay ruidos de fondo inusuales, así como verificar que se trata de una oferta legítima contactando directamente con la persona u organización que la promociona.

Y señalan que hay que desconfiar de aquellos anuncios y vídeos que prometen recompensas poco creíbles y, sobre todo, de formularios de contacto en páginas web desconocidas que soliciten datos personales y financieros.

Europa Press- Foto internet-medios

LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ

Fotografía: Cronica viva

Compartir 0 FacebookTwitterWhatsapp
RedaccionA

noticia anterior
HERMENÉUTICA DEL CONCEPTO LIBERTAD
noticia siguiente
En Honduras, movilizaciones para exigir cancelación de minería y proyectos asociados

También le podría interesar

Redes sociales, uno de los principales flancos de...

junio 8, 2025

China. De Confucio a la IA: el país...

junio 7, 2025

Pensamiento crítico. Cara y ceca de la Inteligencia...

junio 6, 2025

Visitantes en este momento:

576 Usuarios En linea
Usuarios: 96 Invitados,480 Bots

Blog: Perspectivas comunistas

Desde el Plantón magisterial en el Zócalo de la CDMX

Nuestras redes sociales

Blog de la Columna CORTOCIRCUITOS

Nuestros grupos de difusión

Artículos publicados por mes

Síguenos en Facebook

Síguenos en Facebook

Artículos por AUTORES

Artículos publicados por FECHA

junio 2025
L M X J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« May    

Artículos más leídos esta semana

  • 1

    La CNTE y el acto de desenlatar la lucha de clases en México

    junio 6, 2025
  • 2

    ¡NO NOS VAMOS, SOLO NOS HACEMOS UN POCO MAS A LA IZQUIERDA!

    junio 6, 2025
  • 3

    Primer round: CNTE desnuda carácter neoliberal de la 4T

    junio 7, 2025
  • 4

    Alto al ataque mediático contra la CNTE, magisterio, organizaciones y sindicatos

    junio 2, 2025
  • 5

    Banco Azteca es premiado con 25 % de las AFORES: Pedro Hernández de la CNTE

    mayo 30, 2025
  • 6

    La CNTE: autonomía y movilización en el marco de una hegemonía progresista (3/3)

    junio 3, 2025
  • ¿Cuáles son los elementos de una historieta?

    febrero 15, 2017
  • 8

    Ante la ratificación del Director del Colegio Preparatorio de Xalapa por parte de la USICAMM la Dirección de Bachillerato lo “retira” de manera arbitraria. Comunidad escolar inicia protestas

    junio 3, 2025
  • 9

    Daniela Griego, Presidenta Municipal electa de Xalapa. Recibe su constancia de mayoría

    junio 5, 2025
  • 10

    México. Maestros de la CNTE, continúa la huelga

    junio 4, 2025
  • 11

    ¡Quién miente?, ¿la presidenta o la CNTE?

    junio 1, 2025
  • 12

    AFORES: un robo para los trabajadores. ¿Quiénes son y cuántas cuentas controlan?

    mayo 25, 2025
  • 13

    Colombia. Potente huelga contra el boicot de la derecha al referendo de reforma laboral

    junio 5, 2025
  • 14

    La CNTE: autonomía y movilización en el marco de una hegemonía progresista (2/3)

    junio 1, 2025

Rolando Revagliatti. Argentina

Raúl Allain. Perú

Juan Antonio Guerrero O. México

Vanesa Monserrat. Argentina

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

@2020 - Insurgencia Magisterial

Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
@2020 - Insurgencia Magisterial

Leer también:x

Por favor, no hagas mentir al robot

febrero 10, 2025

Faceboook: El coronavirus cambió el trabajo para...

marzo 15, 2021

El nuevo modelo de inteligencia: hacia una...

abril 13, 2016