La Inteligencia Artificial (IA) está transformando la comunicación digital pero también está abriendo una nueva puerta al fraude y la suplantación.
En las últimas semanas, influencers del ámbito nacional han comenzado a publicar vídeos en los que, gracias a IA generativa, no sólo traducen sus contenidos a otros idiomas, sino que replican su propia voz y sincronizan el movimiento de sus labios, generando una versión artificial que habla de forma natural como si fuera real.
Desde el proveedor global de servicios de TI y soluciones digitales, Logicalis, han advertido que este fenómeno representa un punto de inflexión.
“La combinación de IA generativa, clonación de voz y sincronización labial está alcanzando un nivel de realismo que plantea un riesgo claro de manipulación, suplantación y pérdida de confianza digital. Empieza a ser un tema serio. Hoy cualquiera puede hacerte decir lo que nunca has dicho, en cualquier idioma”.
En esta línea, los riesgos son múltiples. Además del impacto en derechos de imagen y autenticidad, esta tecnología plantea implicaciones críticas en materia de ciberseguridad. Cada vez es más difícil verificar la autenticidad de una voz o un vídeo.
Estudios recientes señalan que los usuarios solo logran identificar correctamente un deepfake vocal en el 73 % de los casos y los sistemas automáticos de detección fallan con facilidad ante audios realistas o manipulados.
La amenaza no es hipotética, los deepfakes ya se utilizan para fraudes reales. De hecho, un caso en Reino Unido acabó con la transferencia de 25 millones de dólares tras una llamada con la voz clonada de un directivo.
Según el software de ciberseguridad McAfee, una de cada diez personas ha recibido mensajes de voz generados por IA simulando la voz de alguien conocido y el 77 % de ellas perdió dinero como consecuencia. Además, el 85 % de las empresas medianas y grandes ha sufrido al menos un intento de ataque mediante deepfake en el último año.
Instagram —una de las plataformas donde más creadores comparten contenido— cuenta con más de 2.000 millones de usuarios activos mensuales en todo el mundo, lo que amplifica de forma exponencial el alcance potencial de este tipo de manipulaciones.
Los expertos insisten en la necesidad de una respuesta coordinada. Entre las medidas clave, destacan la autenticación mediante marcas de agua digitales, el uso de firmas invisibles, tecnologías de verificación forense y protocolos híbridos humano-IA para identificar manipulaciones. También reclaman que plataformas, reguladores y autoridades aceleren el desarrollo de marcos legales que protejan a personas y empresas frente al uso malicioso de estas tecnologías.
La presidenta de la Confederación Española de la Pequeña y Mediana Empresa (Cepyme), Ángela de…
Melilla ha vivido este viernes, 17 de abril, un auténtico adelanto del verano. De esos…
La Ciudad Autónoma ha recibido en el mediodía de este viernes 17 de abril a…
La Ciudad Autónoma de Melilla acogerá este sábado 18 de abril de 2026 la duodécima…
El Melilla Ciudad del Deporte La Salle se desplaza este sábado hasta tierras castellano-leonesas para…
Importante jornada para los equipos de la Peña Real Madrid y del Rusadir dentro del…