Inteligencia Artificial: investigadores crean algoritmo para detectar alucinaciones de ChatGPT, Copilot y más

En el terreno de la Inteligencia Artificial (IA), los modelos de lenguaje grande como ChatGPT, Claude, Copilot DALL-E e incluso Google Gemini han demostrado ser herramientas impresionantes, que producen un alto grado de inquietud por el futuro laboral humano por el aparente rango de efectividad de sus resultados.

Un problema grave: las alucinaciones de la IA

En el mundo de la IA, las alucinaciones son un problema recurrente y preocupante. Todos estos modelos actuales comparten la tendencia a generar información falsa o “alucinaciones”, lo que ha llevado a errores vergonzosos y ha limitado su utilidad. Este problema es tan grave que incluso Sam Altman, CEO de OpenAI, ha intentado minimizarlo en diversas ocasiones. Según Altman:

“Gran parte del valor de estos sistemas está fuertemente relacionado con el hecho de que alucinan. Son más un feature o característica de sus funciones que un bug o fallo. Si quieres buscar algo en una base de datos, ya hay cosas más útiles para hacerlo”.

Este tipo de declaraciones no solucionan el problema, ya que las alucinaciones están tan bien integradas con información verdadera que pueden engañar a cualquier persona no experta en el tema.

Ejemplos recientes y la necesidad de una solución

Un ejemplo claro de los peligros que representan estas alucinaciones ocurrió recientemente cuando Google se vio obligado a retirar sus resúmenes de búsqueda potenciados por IA. El modelo Gemini comenzó a sugerir comportamientos peligrosos y absurdos, como poner pegamento en la pizza y comer piedras. Afortunadamente, hay buenas noticias: una solución real está en camino.

Un nuevo algoritmo para detectar alucinaciones

De acuerdo con un reporte de Yahoo! News, un grupo de investigadores ha desarrollado un detector de alucinaciones con IA capaz de identificar cuándo un modelo está inventando información que intenta hacer pasar como verdadera. Los científicos del Departamento de Ciencias de la Computación de la Universidad de Oxford han creado un algoritmo que puede detectar si las respuestas generadas por IA son objetivas con una precisión del 79%.

Este método representa una mejora del 10% sobre las técnicas existentes y se basa en un principio simple: pedir al chatbot que responda la misma pregunta varias veces (entre 5 y 10), para luego analizar las respuestas, cruzarlas y determinar qué es falso y qué es verdadero.

El secreto del algoritmo: la entropía semántica

El algoritmo mide la entropía semántica, que es la variación en el significado de las respuestas. Si las respuestas son diferentes entre sí, la puntuación de entropía semántica es alta, lo que indica que la IA podría estar alucinando. Por el contrario, si las respuestas son similares o idénticas, la puntuación es baja, sugiriendo una respuesta objetiva y libre de alucinaciones.

Este método supera a otros enfoques que se basan en el simple análisis de la redacción de la respuesta en lugar de su significado. Al enfocarse en el significado, el nuevo algoritmo es más preciso para detectar alucinaciones, incluso cuando la redacción es similar. Con esto, podría trabajarse en una mejora para ChatGPT y bots similares, de modo que al fin dejen de alucinar.

Compartir
Exit mobile version