La UE exige a OpenAI y Google que revelen datos de entrenamiento de su IA

Un grupo que representa los interesas de grandes tecnológicas estadounidenses asegura que el nuevo código "impone una carga desproporcionada a los proveedores de IA"

La UE exige a OpenAI y Google que revelen datos de entrenamiento de su IA
Algunos de los apartados de la ley de IA entrarán en vigor en unas semanas, pero las sanciones por incumplimiento no surgirán hasta agosto de 2026
Publicado en Tecnología

La Unión Europea es pionera en desarrollar la primera ley integral del mundo que regula la inteligencia artificial. La Ley de Inteligencia Artificial de la UE (AI Act, en inglés) fue aprobada en marzo de 2024 y entrará en vigor de manera progresiva a lo largo de 2025 y 2026. Su objetivo es regular el uso, desarrollo y comercialización de los sistemas de IA en los países miembros de la Unión Europea, con el objetivo de proteger los derechos de las personas y garantizar la seguridad y transparencia.

Esta ley prohíbe que los sistemas de IA disponibles en la UE ofrezcan algún tipo de sistema de crédito social (como el de China), además de identificar a las personas en público mediante reconocimiento facial (salvo contadas y estrictas excepciones). Los asistentes virtuales y bots conversacionales, como ChatGPT o Gemini deben ser transparentes, puesto que su nivel de riesgo es limitado, según la clasificación en cuatro niveles de riesgo.

Para ello, la Unión Europea ha introducido un código de prácticas voluntario con directrices que buscan ayudar a las empresas a cumplir con la ley, que entrará en vigor el próximo mes. Las reglas apuntan al pequeño grupo de poderosas empresas tecnológicas estadounidenses formado por OpenAI, Microsoft, Google y Meta, encargado de desarrollar los modelos de IA integrados en multitud de productos y servicios.

Las medidas de la Comisión Europea para que la IA sea segura y transparente

Según el código, las empresas encargadas de desarrollar sistemas de IA deben detallar el contenido utilizado para entrenar sus sistemas, algo que los editores y titulares de derechos llevan tiempo planteando. Además, deberán realizar evaluaciones de riesgos para detectar posibles usos indebidos, por ejemplo, el desarrollo de armas biológicas (imposible no pensar los zombis y otras creaciones de Umbrella en los videojuegos de Resident Evil).

Como ya hemos comentado en Urban Tecno en diversas ocasiones, los modelos de lenguaje grande (véase ChatGPT) requieren una enorme cantidad de datos para su entrenamiento. Cuantos más datos, mejores resultados ofrecerá. El problema es que los recursos libres son limitados, y las bibliotecas de pago pueden pedir una fortuna por acceder a su contenido. De modo que hay compañías como Meta que, simplemente, descargar millones de libros ilegalmente a través de archivos torrent.

Las nuevas normas se derivan de la ley de IA más amplia aprobada el año pasado. Aunque algunas partes entran en vigor el 2 de agosto, las sanciones por incumplimiento no se aplicarían hasta agosto de 2026. Las multas por infracciones podrían ser de hasta 35 millones de euros o el 7% de los ingresos globales. Según la Comisión Europea, estas directrices tienen como objetivo hacer que los sistemas de IA "no solo sean innovadores, sino también seguros y transparentes". Henna Virkkunen, vicepresidenta ejecutiva de la Comisión para la soberanía tecnológica, la seguridad y la democracia, dijo en un comunicado de prensa:

La publicación de hoy de la versión final del Código de prácticas para la IA de propósito general marca un paso importante para hacer que los modelos de IA más avanzados disponibles en Europa no solo sean innovadores, sino también seguros y transparentes

Algunas de las empresas afectadas por la ley están revisando el código. OpenAI y Google, dos de las más potentes del sector, han afirmado estar estudiando el texto final. CCIA Europa, un grupo comercial que representa a Amazon, Google y Meta, criticó las directrices. El grupo afirmó que el código "impone una carga desproporcionada a los proveedores de IA".

Para ti
Queremos saber tu opinión. ¡Comenta!