La UE se blinda ante la inteligencia artificial: prohíbe los sistemas que presentan un "riesgo inaceptable"

La IA avanza tan rápido que es necesario regularizarla para evitar que se vaya de las manos de las grandes compañías

La UE se blinda ante la inteligencia artificial: prohíbe los sistemas que presentan un "riesgo inaceptable"
Los Estados miembros de la Unión Europea tienen hasta el 2 de agosto para definir las sanciones e identificar a las autoridades responsables de que se cumplan
Publicado en Tecnología

Es increíble lo que ha avanzado la inteligencia artificial en apenas un par de años. Parece que fue ayer cuando ChatGPT, el bot conversacional desarrollado por OpenAI, llegó a nuestras vidas, pero lo cierto es que lleva disponible desde finales de 2022. No es mucho tiempo, pero el suficiente como para haber mejorado muchísimo. De hecho, se ha convertido en un potente motor de búsqueda capaz de hacer frente a Google, y ya está al alcance de todos su nuevo modelo o3-mini.

Como toda nueva tecnología, la inteligencia artificial ha despertado las preocupaciones de muchas personas, sobre todo porque se espera que reemplace a millones de personas en sus puestos de trabajo. Por poner un ejemplo, se estima que hasta 200 mil trabajadores de Wall Street perderán su empleo en apenas unos años. Se piensa que más del 40% de compañías de todo el mundo reducirá su plantilla para 2030.

Por este motivo, hay sectores que creen necesaria la regulación de la inteligencia artificial, garantizando la seguridad, privacidad y ética. No hay un consenso a nivel mundial, pero hay países o conjuntos de países que están trabajando en ello. La Unión Europea cuenta con la primera legislación integral sobre IA en el mundo, y la ha vuelto a regular para prohibir aquellos sistemas que presentan un "riesgo inaceptable".

La Unión Europea se "blinda" ante las inteligencias artificiales que presentan riesgos

Peligros de la inteligencia artificial

Aunque la inteligencia artificial promete mejorar la vida de millones de personas, también tiene sus riesgos, y la nueva legislación de la Unión Europea busca proteger a los usuarios de posibles malas prácticas

Seis meses después de la promulgación de la nueva Ley de Inteligencia Artificial, se han activado prohibiciones de prácticas consideradas como prohibidas en la Unión Europea. Los Estados miembros tienen hasta el 2 de agosto para definir las sanciones para quienes no cumplan estas prohibiciones. Para la misma fecha, los respectivos gobiernos tienen que identificar a las autoridades responsables.

Algunas de las prácticas que no serán permitidas son las relacionadas con técnicas de manipulación, ni los abusos a menores o personas discapacitadas. Los detalles, establecidos en el Artículo 5, cubren una amplia variedad de casos de uso en los que la IA podría aparecer e interactuar con individuos, desde aplicaciones de consumo hasta entornos físicos. Existen cuatro niveles generales de riesgo:

  • Nivel 1: riesgo mínimo que no requerirá la supervisión regulatoria, como los filtros de SPAM del correo electrónico.
  • Nivel 2: riesgo limitado, que tendrá una supervisión regulatoria ligera, y que incluye a los bots conversacionales de servicio al cliente.
  • Nivel 3: riesgo alto, que se enfrentará a una fuerte supervisión regulatoria, y que incluye a las recomendaciones de atención médica.
  • Nivel 4: riesgo inaceptable, que estarán prohibidas por completo al incumplir los requisitos de cumplimiento.

Se proponen varios ejemplos de inteligencias artificiales de riesgo inaceptable, como la usada para puntuación social (creación de perfiles de riesgo basados en el comportamiento de una persona), la que manipula las decisiones de una persona de forma subliminal o engañosa, la que intenta predecir que las personas cometerán delitos en función de su apariencia, la que recopila datos biométricos en "tiempo real" en lugares públicos con fines policiales, o la que crea (o amplía) bases de datos de reconocimiento facial extrayendo imágenes en línea de cámaras de seguridad.

Las empresas que empleen sistemas de inteligencia artificial con algunas de las características anteriormente mencionadas en la Unión Europea, estarán sujetas a multas, independientemente de donde tengan su sede. Dicha multa podría ser de hasta 35 millones de euros, o el 7% de sus ingresos anuales del año fiscal anterior, lo que sea mayor.

Este cambio llega justo cuando DeepSeek, la nueva inteligencia artificial made in China, está arrasando en todo el mundo. Con miles de millones de descargas, promete ofrecer un rendimiento similar a ChatGPT de forma gratuita. Su uso ha despertado las preocupaciones de países enteros, ya que Italia e Irlanda quieren saber cómo gestiona los datos de sus usuarios, y el Pentágono ha bloqueado su uso al descubrir que algunos empleados estaban conectados a servidores chinos.

Para ti
Queremos saber tu opinión. ¡Comenta!