El Gobierno español ha dado un paso decisivo en la regulación de la inteligencia artificial al presentar un anteproyecto de ley que obligará a que todo contenido generado por esta tecnología —ya sea texto, imagen, audio o vídeo— aparezca claramente identificado. El objetivo declarado es garantizar transparencia y evitar que los ciudadanos confundan lo producido por humanos con lo creado por algoritmos.
La norma, aún en fase de tramitación, contempla sanciones millonarias para quienes incumplan. En los borradores se habla de multas que podrían alcanzar hasta los 35 millones de euros o, en el caso de grandes corporaciones, un 7 % de su facturación anual. De confirmarse, España se situaría entre los países con una de las legislaciones más duras en Europa en este terreno.
Más allá del etiquetado obligatorio, el texto busca poner freno a prácticas consideradas manipulativas. Entre ellas se incluyen los contenidos generados con técnicas subliminales o que exploten la edad, la situación económica o cualquier otra vulnerabilidad del usuario. Además, se abre la puerta a reforzar los requisitos de consentimiento en el uso de datos personales por parte de las empresas que desarrollan o entrenan sistemas de IA.
El impacto de la futura ley será amplio. Plataformas de redes sociales, medios de comunicación y aplicaciones que utilizan generadores automáticos de imágenes, vídeos o artículos tendrán que adaptarse con rapidez. No solo para añadir advertencias visibles, sino también para garantizar que los procesos internos de verificación funcionen. Para las compañías pequeñas, el reto será aún mayor: cumplir con la normativa sin que los costes de implementación se conviertan en un obstáculo insalvable.
Mientras tanto, desde el sector tecnológico se señala que, aunque la medida busca proteger al usuario, el exceso de obligaciones podría ralentizar la innovación. El equilibrio entre seguridad, confianza y desarrollo tecnológico es, de nuevo, el centro del debate.