Elon Musk quiere que las «notas de comunidad» de X las escriba una IA. Los expertos creen que esto va a salir mal
Dejar que la IA verifique si una información es real, cuando tiende a inventársela en muchas ocasiones, no parece ser un sistema muy fiable o seguro

El mundillo de las redes sociales cambió para siempre tras la adquisición de Twitter por Elon Musk en 2022. El magnate multimillonario realizó una serie de cambios más allá de rebautizar el servicio como X que otras plataformas han acabado adoptando, como prescindir de los verificadores de información humanos a favor de las Notas de la comunidad.
Las Notas de la comunidad son una función colaborativa que permite a los usuarios agregar contexto o información importante a las publicaciones potencialmente engañosas o confusas. Estas aclaraciones no corren a cargo de X, sino de los usuarios que se han registrado como colaboradores. Si un número suficiente de colaboradores cree que una nota es útil, acaba apareciendo al resto de los usuarios de la red social.
El objetivo de las Notas de la comunidad es combatir la desinformación. En 2025 resulta muy fácil caer en una fake new, ya que la inteligencia artificial es capaz de generar imágenes, vídeos y sonidos ultrarrealistas. Aunque no es un sistema perfecto, ni mucho menos, actúa como una especie de autorregulación en la plataforma. El problema es que Elon Musk quiere que la IA también escriba sus propias notas comunitarias.
Las notas comunitarias escritas por IA podrían ser "persuasivas pero inexactas"
Que se permite a la inteligencia artificial escribir sus propias notas comunitarias podría arruinar la característica y provocar la pérdida de confianza de los usuarios de X. En un artículo de investigación, la red social describió la iniciativa como una "actualización", y describiendo todos los escenarios posibles de lo que podría salir mal respecto a las Notas de la comunidad escritas por esta tecnología.
Siendo optimistas, X describió agentes de IA que aceleran y aumentan la cantidad de Notas de la comunidad añadidas a publicaciones incorrectas, mejorando la fiabilidad del contenido compartido en la plataforma. Cada una de las notas sería calificada por un revisor humano, proporcionando, a su vez, retroalimentación que mejora la redacción de notas del agente de IA cuanto más largo sea el ciclo de feedback. A medida que los agentes de IA mejoren en la redacción de notas, los revisores humanos pueden centrarse en la verificación de datos más sutiles que la inteligencia artificial no puede abordar rápidamente, como las que requieren experiencia específica o conciencia social.
Si la utilidad evaluada no está perfectamente correlacionada con la precisión, las notas muy elaboradas pero engañosas podrían tener más probabilidades de superar el umbral de aprobación. Este riesgo podría aumentar a medida que avanzan los modelos de lenguaje grande; no solo podrían redactar de forma persuasiva, sino también investigar y construir con mayor facilidad un conjunto de pruebas aparentemente sólido para casi cualquier afirmación, independientemente de su veracidad
El problema está en que X no está segura de si las notas escritas por la IA serán tan precisas como las redactadas por humanos. Es probable que los agentes de IA generen "notas persuasivas pero inexactas" que los evaluadores humanos podrían considerar útiles, ya que esta tecnología es "excepcionalmente hábil para crear notas persuasivas, emocionalmente impactantes y aparentemente neutrales". Esto podría interrumpir el ciclo de retroalimentación, diluyendo las Notas de la comunidad, lo que haría que el sistema fuera menos fiable con el tiempo.