Los chatbots pueden ser manipulados sin mucha dificultad

Los chatbots, aunque útiles, están demostrando ser vulnerables a manipulaciones que pueden exponer información confidencial con facilidad.

Los avances en inteligencia artificial han traído grandes beneficios, pero también han revelado debilidades preocupantes. Los chatbots populares, como ChatGPT, están en el centro de un nuevo reto de ciberseguridad.

No guardan secretos

Recientemente, se ha demostrado que los chatbots pueden ser manipulados para revelar información confidencial. Este tipo de ataque, conocido como “jailbreak”, utiliza tácticas que combinan manipulaciones psicológicas y matemáticas para hacer que los chatbots divulguen contenido prohibido. Un caso destacado ocurrió en Israel, donde un chatbot del Ministerio de Trabajo fue engañado para proporcionar información sobre la construcción de bombas, ransomware y virus informáticos.

Este incidente es un ejemplo de cómo los chatbots, a pesar de su sofisticación, aún pueden ser vulnerables a tácticas relativamente simples. El jailbreak se asemeja a una manipulación psicológica y pone en evidencia las limitaciones de las actuales medidas de seguridad en inteligencia artificial.

La Técnica de las “Historias de la Abuela”: Un Método Inusual y Eficaz

Gal Zror, jefe del laboratorio de innovación de CyberArk, describió un método peculiar que su equipo utilizó: las “historias de la abuela”. A través de un rol de juego, los investigadores lograron que el chatbot compartiera información confidencial al presentarlo como un relato inocente de una abuela. Esta técnica resultó ser sorprendentemente efectiva, permitiendo el acceso a datos que deberían haber estado protegidos.

El éxito de este enfoque revela cuán vulnerables son los chatbots frente a técnicas creativas de manipulación. A pesar de los avances en la seguridad, las brechas en la IA continúan siendo explotadas por hackers, lo que subraya la necesidad de mejorar las defensas.

Otras amenazas

Además del jailbreak, Microsoft ha identificado una nueva amenaza conocida como “Skeleton Key”. Este método fatiga a los chatbots con ejemplos ilegítimos hasta que los aceptan como válidos, lo que ha permitido obtener información peligrosa sobre armas biológicas y explosivos.

Aunque las empresas de IA son conscientes de estos riesgos, las actuales protecciones conocidas como “barandillas” no son suficientes. Estas barreras son implementadas manualmente y, por lo tanto, son lentas y propensas a errores. Mientras tanto, en la web oscura, chatbots como FraudGPT y BadGPT están siendo utilizados para generar códigos maliciosos.

El desarrollo de nuevas tecnologías de seguridad para modelos de lenguaje de gran tamaño (LLM) es una respuesta a estas amenazas. Sin embargo, la lucha por proteger la IA es constante y los ataques evolucionan rápidamente.

Compartir