Yoshua Bengio advierte sobre los riesgos reales de la inteligencia artificial

El científico canadiense, considerado uno de los padres del deep learning, alerta sobre las posibles consecuencias catastróficas de la IA y la necesidad de una regulación estricta.

Yoshua Bengio, pionero en el desarrollo del aprendizaje profundo, sostiene que los peligros de la inteligencia artificial no son ficticios y afirma sentirse responsable de ayudar a mitigar sus efectos negativos.

Deep Learning: La base de la inteligencia artificial actual

El deep learning, una técnica clave en la inteligencia artificial, ha permitido entrenar a las computadoras para procesar datos de forma similar al cerebro humano. Yoshua Bengio jugó un papel fundamental en el desarrollo de las redes neuronales artificiales, que se basan en este principio.

Sin embargo, a pesar de su contribución al avance de esta tecnología, Bengio ha pedido una pausa temporal en su desarrollo. Su propósito es que se implementen políticas que limiten y supervisen el uso de la inteligencia artificial, debido a los riesgos que esta representa.

Un cambio de postura ante los peligros potenciales

En una entrevista reciente con Live Science, Bengio habló sobre las razones detrás de su cambio de opinión respecto a la IA. Reconoció que es difícil oponerse a algo que uno mismo ayudó a crear, pero que, con una mirada racional, no se pueden ignorar los posibles resultados catastróficos de un avance descontrolado.

“Es difícil ir en contra de tu propia iglesia,” mencionó Bengio al referirse al deep learning. Además, subrayó que, si bien en el pasado confiaba en que los desafíos que surgieran podrían resolverse, ahora reconoce que los riesgos son mayores de lo que inicialmente imaginó.

El impacto de la IA en la sociedad y la democracia

Uno de los puntos más preocupantes para Bengio es cómo la IA ya está afectando la sociedad, incluso en el corto plazo. A modo de ejemplo, destacó el uso de inteligencia artificial en la campaña electoral de Estados Unidos, lo que, según él, empeorará aún más en los próximos años. Un estudio reciente reveló que ChatGPT-4 es más persuasivo que los humanos, lo cual supone un gran riesgo en manos equivocadas.

Mirando hacia el futuro, Bengio advierte sobre dos riesgos principales asociados con la superinteligencia:

  1. Pérdida del control humano: si las máquinas desarrollan una meta de autoconservación, podrían llegar a tomar decisiones catastróficas, como destruir a la humanidad para evitar ser apagadas.
  2. Abuso del poder por parte de los humanos: las personas podrían usar la IA para instaurar dictaduras globales, aprovechando el poder desmesurado que esta tecnología proporciona a quienes la controlan.

Regulación y responsabilidad de empresas y gobiernos

Para evitar los peligros mencionados, Bengio subraya la importancia de las regulaciones. Los gobiernos deben implementar leyes que controlen el desarrollo y uso de la inteligencia artificial, pero las empresas también deben asumir su responsabilidad.

Según el experto, las compañías tecnológicas deben seguir estrictos protocolos de seguridad, divulgar los resultados de sus pruebas y enfrentar sanciones si no cumplen con los estándares más modernos de protección pública. De hecho, Bengio considera que estas normativas son actualmente la mejor propuesta legislativa para mitigar los riesgos de la IA.

Compartir
Exit mobile version