Técnica Espacial para Identificar Deepfakes en Internet

Una técnica de exploración espacial podría ser clave para identificar deepfakes en internet.

Las técnicas utilizadas para analizar galaxias distantes ahora ayudan a identificar deepfakes y fotografías generadas por IA.

Una investigación de la Universidad de Hull, en el Reino Unido, ha demostrado que el análisis del comportamiento de la luz sobre superficies curvas es un método prometedor para desmentir información en las redes sociales. El método propuesto por el Centro de Excelencia para la Ciencia de Datos, Inteligencia Artificial y Modelado sugiere utilizar el reflejo de la luz en los globos oculares como una prueba para determinar si las imágenes son creadas por una IA o son auténticas.

Análisis de la Luz en los Ojos

El rostro y la voz de los personajes que se ven en una pantalla pueden ser imitados, pero todavía no existe una tecnología capaz de simular con precisión la física del brillo en los ojos. La consistencia de la física de la luz en los ojos puede ser una prueba clave para saber si una imagen está creada con IA. Adejumoke Owolabi, científico de la Universidad de Hull, empleó el sistema CAS (Concentration, Asymmetry, and Smoothness) y el índice Gini para medir esta consistencia.

Ambas técnicas permiten a los astrónomos estructurar la luz proveniente de objetos distantes en el espacio y asignarles una magnitud, incluso cuando toda la información está contenida en unos pocos píxeles. El sistema CAS cuantifica la concentración de luz, suavidad y simetría de un objeto, mientras que el índice Gini registra la desigualdad en la distribución de la luz. Juntas, estas técnicas permiten determinar si una galaxia está interactuando con otra cercana o si tiene un núcleo activo, y ahora, identificar deepfakes.

Aplicación en la Detección de Deepfakes

El método desarrollado por Owolabi logró predecir deepfakes e imágenes generadas por IA con un 70% de precisión. La sofisticación de estas técnicas permitió detectar inconsistencias físicas en las fotos falsas al considerar la reflexión en los ojos derecho e izquierdo. Aunque las primeras pruebas no son tan precisas como el científico quisiera, su investigación abre un nuevo camino hacia la certificación de la información. Según Nature, el trabajo de Owolabi aún no se ha publicado, pero fue presentado durante la Reunión Nacional de Astronomía de la Real Sociedad Astronómica del Reino Unido el pasado 15 de julio.

Impacto y Futuro de la Tecnología

Las deepfakes y las imágenes generadas por IA se vuelven más reales a medida que se perfeccionan aplicaciones como DALL-E o Midjourney. La normalización y simplicidad de su uso han generado importantes controversias a nivel global. Expertos en información digital han reafirmado que esta tecnología tiende a utilizarse con fines de desestabilización política, propaganda, pornografía y estafas.

Ante la proliferación de imágenes falsas y la suplantación de identidad, se ha vuelto necesario desarrollar métodos que permitan certificar la autenticidad de la información que circula en internet. Existen directrices básicas para detectar deepfakes, independientemente del generador que los produzca. Elementos como la simetría, las texturas o los movimientos de un cuerpo revelan la artificialidad de una imagen. Factores como la cantidad o forma de los dedos y la consistencia de la iluminación en una escena aún no son dominados por completo por los generadores de contenido.

Necesidad de Métodos Complementarios

En la actualidad no existe un método único para verificar la autenticidad de una imagen. Los detectores disponibles utilizan múltiples factores para proporcionar un porcentaje de fiabilidad. El método astronómico basado en el análisis de la luz en los ojos podría incorporarse como una nueva prueba que, en conjunto con otras, revele la verdadera naturaleza de una imagen.

Compartir