Los investigadores descubren que hay algo aún más difícil para la IA que simular inteligencia

A pesar de los avances de la IA, todavía resulta relativamente fácil distinguir entre un usuario falso y uno real en las redes sociales

Los investigadores descubren que hay algo aún más difícil para la IA que simular inteligencia
Inteligencia artificial
Publicado en Tecnología

En plena era de la inteligencia artificial, la teoría del Internet muerto (Dead Internet Theory) cobra más sentido que nunca. Esta hipótesis conspirativa afirma que gran parte del contenido y actividad en la red actual no es creada por seres humanos, sino por bots, la IA y algoritmos automatizados que simulan la interacción humana. Sabiendo que la Grokipedia de Elon Musk está diseñada para generar y supervisar su contenido de manera autónoma, algo de cierto parece que hay.

En base a la teoría del Internet muerto, muchos perfiles y comentarios publicados en las redes sociales no pertenecerían a personas, sino a máquinas. Y aunque a priori no parezca que tenga sentido, hay motivos políticos, económicos y técnicos que explican por qué lo tiene. En algunos casos, es para generar tráfico, obtener clics y generar ingresos por la publicidad. En otros, para manipular, llenando las plataformas de reseñas positivas falsas sobre productos y servicios, además de boicotear a la competencia. También para desinformar y difundir propaganda o sembrar confusión.

Existe la posibilidad de que hayas interactuado con algún que otro bot en las redes sociales o en un foro de Internet sin que lo supieras. No porque no haya maneras de saberlo (algunos perfiles falsos son tremendamente evidentes que no pertenecen a gente de carne y hueso), sino porque has sentido sus respuestas como «normales». Puede que más educadas de lo normal. Ese tono es el factor que los delata.

A la IA no se le da bien ser espontánea ni tóxica, dos rasgos más propios de los seres humanos

Investigadores de la Universidad de Zúrich, de la Universidad de Ámsterdam, de la Universidad de Duke y de la Universidad de Nueva York, hace unos días, publicaron un estudio bastante revelador que afirma que los modelos de IA siguen siendo fácilmente distinguibles de los humanos en las conversaciones mantenidas por las redes sociales.

La investigación, que probó nueve modelos de peso abierto en X (la red social anteriormente conocida como Twitter), Bluesky (la alternativa más popular a X) y Reddit (uno de los foros más populares de Internet), determinó que los clasificadores desarrollados por los investigadores detectaron respuestas generadas por IA con una precisión de entre el 70 y el 80 %.

Los autores del estudio introdujeron lo que llaman una «prueba de Turing computacional», con la que evalúan cómo de cerca se aproximan los modelos de IA al lenguaje humano. El sistema utiliza clasificadores automatizados y análisis lingüístico para identificar características específicas que distinguen el contenido generado por máquinas del contenido escrito por humanos.

las salidas de LLM siguen siendo claramente distinguibles del texto humano, particularmente en el tono afectivo y la expresión emocional

Los investigadores, dirigidos por Nicolò Pagan en la Universidad de Zúrich, probaron varias estrategias de optimización, las cuales iban desde simples indicaciones hasta ajustes precisos. No obstante, descubrieron que las señales emocionales más profundas persisten como indicadores fiables de que una interacción de texto en línea en particular fue creada por un bot conversacional en lugar de por un ser humano.

Cuando los modelos de IA se ajustaban para evitar la detección imitando el estilo de escritura humano, más se alejaban de lo que los humanos realmente decían en respuesta a las mismas publicaciones. El estudio, que no ha sido revisado por pares, demuestra que los modelos actuales enfrentan limitaciones persistentes para capturar la expresión emocional espontánea. Al parecer, los sistemas tienen problemas para igualar el nivel de negatividad casual, con puntuaciones de toxicidad más bajas.

Para ti
Queremos saber tu opinión. ¡Comenta!