La desinformación sobre las protestas de Los Ángeles está empeorando. La culpa es de ChatGPT, Grok y otros chatbots con IA

Informarse a través de las redes sociales y los bots conversacionales con IA es muy mala idea

La desinformación sobre las protestas de Los Ángeles está empeorando. La culpa es de ChatGPT, Grok y otros chatbots con IA
La veracidad de las imágenes de tropas de la Guardia Nacional durmiendo en el suelo en San Francisco son objeto de debate en Internet
Publicado en Web3

Las protestas han tomado la ciudad estadounidense de Los Ángeles. A inicios de junio comenzaron las redadas masivas de ICE (Inmigración y Control de Aduana de los Estados Unidos de América), con agentes federales deteniendo a cientos de personas, en su mayoría inmigrantes, en varios puntos de la localidad californiana contra su voluntad.

Como consecuencia, se iniciaron propuestas. En un principio, se desarrollaron de forma pacífica, pero pronto surgieron los altercados, con lanzamientos de objetos, incendios de vehículos (como los de la empresa de robotaxis Waymo, subsidiaria de Google), así como barricadas. Esto provocó que el presidente Donald Trump ordenase el despliegue de miles de soldados de la Guardia Nacional.

Muchas personas siguen la situación a través de las redes sociales. Cuentas en X como la de @BGOnTheScene comparten imágenes, como la de los coches autónomos incendiados, además de informar de cómo se desarrollan los acontecimientos. Sin embargo, otra lo hace a través de bots conversacionales potenciados con IA, como ChatGPT, sin saber que están siendo víctimas de la desinformación.

Ya no nos podemos fiar de lo que vemos con nuestros propios ojos

Como en cualquier evento, la desinformación campa a sus anchas. Las protestas en la ciudad de Los Ángeles no son una excepción. Las redes sociales, sobre todo X y Facebook, se están inundando de información inexacta, con tácticas como la reutilización de antiguas grabaciones de protestas o fragmentos de videojuegos y películas.

Los usuarios que publican el contenido aseguran que los protestantes son, en realidad, agitadores pagados y dirigidos por fuerzas oscuras; una afirmación sin pruebas. Se están beneficiando de que las redes sociales X y Meta han dejado de moderar el contenido de sus plataformas con verificadores humanos, apoyándose en las polémicas Notas de la comunidad.

Hace unos días, el San Francisco Chronicle publicó imágenes de tropas de la Guardia Nacional durmiendo en el suelo. Estas fueron compartidas por el gobernador de California en su cuenta de X, respondiendo a una publicación del presidente Trump con el mensaje de : "Enviaron a sus tropas aquí sin combustible, comida, agua ni un lugar donde dormir".

Al poco tiempo de compartirse las fotografías, muchos usuarios de X y Facebook afirmaron que fueron generadas con inteligencia artificial o reutilizadas de una situación anterior. Por ello, algunas personas recurrieron al propio bot conversacional de X, Grok, para saber si las imágenes eran reales o falsas, respondiendo que "probablemente se originaron en Afganistán en 2021". Añadió: "Las afirmaciones que las vinculan con el despliegue de Los Ángeles en 2025 carecen de fundamento creíble y parecen ser una atribución errónea. Ninguna fuente definitiva confirma la conexión con Los Ángeles", como comenta WIRED.

Otro usuario de X cuestionó la afirmación del bot conversacional, señalando que las imágenes fueron tomadas en San Francisco. La IA respondió que "Las fotos de las tropas de la Guardia Nacional durmiendo en el suelo probablemente sean de 2021. Probablemente del Capitolio de los Estados Unidos, no de Los Ángeles de 2025".

La experiencia no es mejor usando otros chatbots. ChatGPT afirmó erróneamente que una de las fotos compartidas por el gobernador de California se tomó en el aeropuerto de Kabul en 2021, durante la retirada de Afganistán del expresidente Joe Biden. Esta respuesta fue compartida de nuevo en Facebook y Truth Social, la red social propiedad de Donald Trump.

Estamos en un momento en el que, a pesar de haber tanto medios, resulta más complicado que nunca informarse. Es extremadamente sencillo caer en las fake news, sobre todo ahora que la inteligencia artificial puede generar imágenes y hasta vídeos en movimiento con detalles muy reales. Ya no vale decir que "solo me fío de lo que veo con mis propios ojos".

Para ti
Queremos saber tu opinión. ¡Comenta!