El auge de deepfakes y clonación de voz está transformando los ciberataques. Expertos advierten sobre los riesgos crecientes.
La Inteligencia Artificial (IA) ha avanzado significativamente en la creación de contenido multimedia falso, desde imágenes y videos hasta voces clonadas, lo que ha encendido las alarmas en el ámbito de la ciberseguridad. Expertos advierten que estas tecnologías, conocidas como deepfakes y deepvoice, están siendo explotadas en el mercado negro para cometer fraudes y otros delitos cibernéticos, con precios que oscilan entre $300 y $20,000 dólares por minuto de contenido.
La evolución de los deepfakes y deepvoice
En el último año, la capacidad para crear deepfakes ha madurado considerablemente. No solo se trata de imágenes o videos manipulados; ahora, la falsificación de voces también se ha sumado a esta tendencia. Los avances en IA generativa y aprendizaje automático han permitido a los ciberdelincuentes producir contenido cada vez más realista, lo que representa un desafío para la seguridad digital.
Expertos de Kaspersky destacan que la IA puede aprender de datos no estructurados como el rostro y movimientos humanos, lo que facilita la creación de deepfakes altamente convincentes. La capacidad de falsificar voces plantea nuevos riesgos, especialmente para figuras públicas cuyas muestras de voz están disponibles en línea.
Impacto en sectores clave y el aumento del mercado negro
Mientras que las aplicaciones de IA han beneficiado a sectores como el marketing, el uso malicioso de deepfakes está afectando gravemente a la industria bancaria y financiera. Las técnicas de suplantación de identidad con deepfakes han permitido a los atacantes eludir mecanismos de verificación biométrica, lo que ha resultado en accesos no autorizados a cuentas bancarias.
Además, la demanda de contenido falso de alta calidad ha crecido en la Darknet. Los ciberdelincuentes no solo buscan deepfakes de buena calidad, sino también la capacidad de generar este contenido en tiempo real. Esto ha impulsado el desarrollo de tutoriales y servicios especializados en la creación de deepfakes y clonación de voz.
Riesgos y protección en la era de los deepfakes
Isabel Manjarrez, investigadora de Kaspersky, advierte que la demanda de deepfakes supera la oferta en el mercado negro, lo que podría llevar a un aumento significativo de incidentes en el futuro cercano. La falta de conocimiento sobre los deepfakes entre los usuarios comunes, como el 72% de los chilenos que no saben qué son, agrava aún más el riesgo.
La experta subraya la importancia de establecer pautas y estándares claros para el uso de deepfakes, garantizando la transparencia y responsabilidad en su implementación. A pesar de los riesgos, Manjarrez concluye que la IA tiene un gran potencial, pero su uso debe ser ético y responsable.
Consejos para detectar deepfakes y protegerse
- Sospecha de fuentes desconocidas: Evalúa con cautela correos electrónicos, mensajes de texto o voz, videos, y confirma la información en fuentes oficiales.
- Inconsistencias en el video: Observa si la iluminación y el fondo son coherentes. Las anomalías pueden indicar manipulación.
- Movimientos faciales y corporales anormales: Parpadeos extraños o desincronización entre la voz y los movimientos de labios pueden ser señales de deepfakes.
- Distorsiones de voz en audios: Toma nota de tonos monótonos o ruido de fondo extraño, indicios de un audio falso.
Es crucial mantenerse informado sobre estas tecnologías y utilizar soluciones de seguridad que protejan contra amenazas, tanto conocidas como desconocidas.