España se pone dura contra la inteligencia artificial: "multas masivas" por no etiquetar el contenido generado con IA
Las multas podrán ser de hasta 35 millones de euros, o el 7% de la facturación anual

Cuando hablamos de inteligencia artificial, lo primero en lo que se suele pensar es en los bots conversacionales por ser las herramientas más populares y accesibles para el grueso de los usuarios. ChatGPT, Claude, Grok 3, Copilot o Gemini son algunos las propuestas más avanzadas del mercado, apoyadas por grandes compañías como OpenAI, Microsoft, Google o X/xAI.
Sin embargo, esta tecnología va mucho más allá de pedir a un chatbot que redacte un texto de cierta longitud o que busque información en Internet con fuentes que la respalden. También hay herramientas especializadas en la creación de imágenes o vídeos. Con el paso del tiempo, se han pulido tanto que es tremendamente difícil saber si son reales o no. Algunos de los mejores ejemplos son DALL-E, MidJourney o Sora, que aunque prometía mucho, no tuvo un lanzamiento a la altura por sus mediocres resultados en algunos escenarios.
Como era de esperar, las redes sociales e Internet en general se han plagado de contenido generado con inteligencia artificial. El mismo Mark Zuckerberg ha asegurado que el feed de Instagram tendrá muchas fotografías y vídeos creados con esta tecnología. Por mucho que nos disguste, parece que los influencers de viaje hechos por IA serán lo habitual dentro de poco. Es por eso que España quiere tomar cartas en el asunto.
Una medida para detener la proliferación de deepfakes
El gobierno de España aprobó el pasado martes una propuesta de ley para imponer grandes multas a las compañías que utilizan contenido generado con inteligencia artificial sin etiquetarlo correctamente como tal. El objetivo es intentar frenar el uso descontrolado de los deepfakes.
El proyecto de ley sigue las guías propuestas por la ley sobre inteligencia artificial de la Unión Europea, la cual impone estrictas obligaciones de transparencia a los sistemas basados en esta tecnología y que son considerados de alto riesgo. Según Óscar López, ministro de Transformación Digital:
La IA es una herramienta muy poderosa que puede utilizarse para mejorar nuestras vidas... o para difundir desinformación y atacar la democracia
España se encuentra entre los primeros países de la Unión Europea en implementar esta legislación, aunque primero tiene que ser aprobada en el Congreso de los Diputados. El incumplimiento del etiquetado inadecuado es considerado una “infracción grave” que puede dar lugar a multas de hasta 35 millones de euros o el 7% de la facturación anual de la compañía, como recoge Reuters.
El ministro agregó que cualquier persona es susceptible de ser víctima de un deepfake, pudiendo usarse su imagen en fotografías o vídeos, incluso la voz, lo que significa que haya que coger con pinzas, a partir de ahora, cualquier contenido que aparezca publicado en Internet y las redes sociales. El proyecto de ley también prohíbe el uso de técnicas subliminales para manipular a grupos vulnerables, así como evitar que las organizaciones clasifiquen a la gente a través de sus datos biométricos utilizando la inteligencia artificial.
No obstante, las autoridades pertinentes sí que podrán utilizar sistemas de vigilancia en tiempo real y en lugares públicos que aprovechen estos datos por motivos de seguridad nacional. Esta propuesta de ley propone una regulación de la inteligencia artificial de la que Estados Unidos está en contra, ya que el país norteamericano cree que aplicando leyes se “mata” su desarrollo y limitan sus capacidades.