El gobierno de España aprobó el martes un proyecto de ley que impone multas muy altas a las empresas que usen contenido generado por inteligencia artificial (IA) sin etiquetarlo correctamente como tal. Esto busca frenar el uso de los llamados “deepfakes”.
El ministro de Transformación Digital, Óscar López, explicó a los periodistas que el proyecto sigue las directrices de la Ley de IA de la Unión Europea, que exige transparencia en los sistemas de IA considerados de alto riesgo.
“La IA es una herramienta muy poderosa que puede mejorar nuestras vidas… o usarse para difundir desinformación y atacar la democracia”, dijo.
España es uno de los primeros países de la UE en aplicar estas normas, que son más completas que el sistema de Estados Unidos, que depende en gran medida de la voluntad de las empresas y de regulaciones estatales dispersas.

López añadió que todos somos vulnerables a los ataques de “deepfakes”, un término que se refiere a videos, fotos o audios editados o generados por algoritmos de IA pero que se presentan como reales.
El proyecto de ley español, que debe ser aprobado por el Congreso, considera como una “infracción grave” no etiquetar correctamente el contenido generado por IA, lo que podría resultar en multas de hasta 35 millones de euros (38,2 millones de dólares) o el 7% de la facturación anual global de la empresa.
Garantizar que los sistemas de IA no dañen a la sociedad ha sido una prioridad para los reguladores desde que OpenAI lanzó ChatGPT a finales de 2022, una herramienta que sorprendió a los usuarios por su capacidad de mantener conversaciones similares a las humanas y realizar otras tareas.
El proyecto también prohíbe otras prácticas, como el uso de técnicas subliminales (sonidos e imágenes imperceptibles) para manipular a grupos vulnerables. López mencionó ejemplos como chatbots que incitan a personas con adicciones a apostar o juguetes que animan a los niños a realizar desafíos peligrosos.
Además, la ley evitará que las organizaciones clasifiquen a las personas usando sus datos biométricos con IA, calificándolas según su comportamiento o rasgos personales para otorgarles beneficios o evaluar su riesgo de cometer un delito. Sin embargo, las autoridades aún podrán usar vigilancia biométrica en tiempo real en espacios públicos por razones de seguridad nacional.
La aplicación de estas nuevas normas estará a cargo de la nueva agencia de supervisión de IA, AESIA, excepto en casos específicos relacionados con privacidad de datos, delitos, elecciones, calificaciones crediticias, seguros o sistemas de mercados de capitales, que serán supervisados por sus respectivos organismos reguladores.
Vía | España aprueba multas de hasta 35 millones por uso no etiquetado de IA – Tecnología con Juancho