Solo editores humanos: Wikipedia prohíbe explícitamente todo texto escrito por IA en los artículos

La versión en inglés de la Wikipedia ahora prohíbe explícitamente a los colaboradores utilizar IA para generar o reescribir el contenido de los artículos

Solo editores humanos: Wikipedia prohíbe explícitamente todo texto escrito por IA en los artículos
Logo Wikipedia eN 3d
Publicado en Tecnología

Wikipedia es el último bastión del conocimiento humano. Algo así como la biblioteca de Alejandría del siglo XXI (fue lanzada el 15 de enero de 2001). Con más de 63 millones de artículos en 334 idiomas redactados por voluntarios de todo el mundo, se trata de la obra de referencia más extensa y más leída de la historia.

Durante décadas, fue la salvación de todos los estudiantes que necesitaban información para realizar un trabajo escolar. Sin embargo, desde hace un par de años, su popularidad está cayendo en picado a pasos agigantados. Y la culpable de que ya no reciba tantas visitas como antes es de la misma que no nos permite comprar un ordenador potente a un precio relativamente asequible: la inteligencia artificial.

Antes de que acabara 2025, la Fundación Wikimedia (la organización encargada de la Wikipedia) pidió a los desarrolladores de IA que utilizasen su contenido de forma responsable. Por un lado, atribuyendo bien las fuentes, y por otro lado, accediendo al contenido a través de su producto de pago: Wikimedia Enterprise. Ahora, la enorme enciclopedia en línea ha prohibido explícitamente todo texto escrito por IA en sus artículos.

Wikipedia da el visto bueno a la IA para corrección de estilo y traducción

La versión en inglés de la Wikipedia ahora prohíbe explícitamente a los colaboradores utilizar modelos de lenguaje extensos (LLM) para generar o reescribir el contenido de los artículos, reflejando la creciente preocupación por la precisión, la fiabilidad y la integridad del conocimiento generado por la comunidad. La decisión se ha producido justo en un momento en que las herramientas de IA se están extendiendo rápidamente por los flujos de trabajo cotidianos.

Según la nueva política, los editores no pueden depender de la IA para producir o reescribir sustancialmente artículos de Wikipedia, alegando que dicho uso suele entrar en conflicto con sus estándares de contenido fundamentales, especialmente en lo que respecta a la verificabilidad y las fuentes.

No obstante, Wikipedia ha establecido dos excepciones puntuales. Una es que los editores pueden utilizar herramientas de IA para perfeccionar sus textos, a modo de correctores gramaticales o de estilo. La otra es que puede usarse para traducción. En estos casos, la herramienta puede generar un borrador, pero el editor debe dominar ambos idiomas, y debe verificar la exactitud y corregir cualquier error antes de la publicación.

El administrador de Wikipedia, Chaotic Enby, enmarcó la medida como parte de un cambio cultural más amplio: "Mi sincera esperanza es que esto pueda impulsar un cambio más amplio. Que empodere a las comunidades en otras plataformas y que esto se convierta en un movimiento popular de usuarios que decidan si la IA debe ser bienvenida en sus comunidades y en qué medida".

También describió la política como "una reacción contra la enshittización y el impulso agresivo de la IA por parte de tantas empresas en los últimos años". Es un paso importante, ya que las propuestas anteriores para establecer normas generales sobre IA no lograron el consenso necesario. Según el mencionado administrador:

"Las propuestas previas para una guía comunitaria inmediata y exhaustiva sobre LLM fracasaron debido a los problemas habituales que supone abordar simultáneamente cuestiones complejas y a gran escala". Añadió: "Ha habido consenso sobre la idea del cambio, pero no sobre la implementación del mismo". A pesar de las nuevas restricciones, su cumplimiento sigue siendo difícil.

Cada vez resulta más complicado identificar el texto generado por inteligencia artificial. La propia Wikipedia reconoce que las herramientas de detección están rezagadas con respecto a los modelos que mejoran rápidamente. Por ello, la plataforma ha publicado directrices para ayudar a los moderadores a detectar contenido escrito por máquinas.

Para ti
Queremos saber tu opinión. ¡Comenta!