Cómo sobrevive la Wikipedia en la era de ChatGPT

Enfrentando la inteligencia artificial, la Wikipedia lucha por mantener su integridad con el apoyo de sus voluntarios.

La popular enciclopedia digital enfrenta nuevos desafíos con la proliferación de textos generados por IA, poniendo a prueba su modelo de moderación comunitaria.

Un legado de control comunitario

Desde su creación, Wikipedia ha dependido de una comunidad dedicada de voluntarios para mantener la precisión y veracidad de su contenido. Con más de 16.000 millones de visitas al mes, la enciclopedia es un objetivo atractivo para quienes buscan diseminar desinformación o realizar campañas de marketing encubierto. Sin embargo, estos intentos siempre han sido contrarrestados por la vigilancia de 265.000 voluntarios activos, que se encargan de monitorear y corregir cualquier irregularidad.

La aparición de herramientas de inteligencia artificial, como ChatGPT, ha complicado este proceso. Ahora, los voluntarios deben enfrentarse a la creación masiva de textos aparentemente bien estructurados, pero llenos de errores y redundancias, que solo un ojo humano entrenado puede detectar. Según Miguel Ángel García, socio de Wikimedia España, la comunidad ha notado un aumento en la cantidad de editores nuevos que suben contenido extenso y sospechoso, lo que sugiere que estos textos podrían haber sido generados por IA.

Inteligencia artificial: ¿Amiga o enemiga?

El cofundador de Wikipedia, Jimmy Wales, ha calificado a la inteligencia artificial como “una oportunidad y una amenaza”. Si bien la IA puede ser útil en tareas redundantes, el riesgo radica en que se generen contenidos de baja calidad que afecten la credibilidad de la enciclopedia. En respuesta, Wikipedia ha reforzado su equipo de aprendizaje automático para abordar esta nueva amenaza, asegurando que los textos sean revisados y moderados adecuadamente.

Chris Albon, director de Aprendizaje Automático en la Fundación Wikimedia, explica que la clave para mantener la calidad del contenido radica en el modelo de moderación basado en la comunidad. Este modelo, que ha demostrado ser efectivo durante dos décadas, se fundamenta en el debate, el consenso y normas estrictas de citación de fuentes secundarias. Cada texto subido a Wikipedia debe estar adecuadamente referenciado, y cualquier artículo que no cumpla con estos estándares es rápidamente detectado y eliminado por la comunidad.

La era post-ChatGPT: nuevos desafíos

Con el lanzamiento de ChatGPT, se observó un pico en la cantidad de textos generados por IA subidos a Wikipedia, lo que aumentó la carga de trabajo de los voluntarios. Sin embargo, la situación parece haberse estabilizado gracias a los esfuerzos colectivos para mantener la calidad del contenido. A pesar de esto, el mayor riesgo para Wikipedia proviene de fuentes externas, donde textos generados por IA podrían convertirse en referencias aparentemente confiables. La comunidad de Wikipedia debe estar alerta y continuar identificando y descartando fuentes no fiables para proteger la integridad de la enciclopedia.

El futuro de Wikipedia en la era de la IA

Una preocupación creciente es el impacto de los chatbots de IA en la relevancia de Wikipedia. Si los usuarios prefieren obtener respuestas resumidas a través de ChatGPT o Google Gemini, la cantidad de visitas a Wikipedia podría disminuir, afectando no solo la visibilidad de los artículos, sino también la motivación de los voluntarios para editarlos. Chris Albon advierte sobre el peligro de una desconexión entre la generación y el consumo de conocimiento, lo que podría llevar a una pérdida significativa de voluntarios.

Además, sin una atribución clara y enlaces a las fuentes originales, las aplicaciones de IA podrían propagar desinformación sin precedentes, dificultando la distinción entre información precisa y errores generados por IA. Este es un reto que Wikipedia y otras plataformas deberán abordar en el futuro.

Compartir