Si has generado un texto, un audio o un vídeo con IA, será mejor que lo etiquetes. De lo contrario podrías exponerte a una multa realmente importante. Es la conclusión del anteproyecto de ley que el Consejo de Ministros aprobó ayer, y está orientada especialmente a evitar los riesgos de los deepfakes.
El Papa y las alarmas. En marzo de 2023 se hizo viral un deepfake del Papa Francisco llevando un teórico abrigo de Balenciaga. Aquello disparó las alarmas de la Unión Europea, que puso en marcha la Ley de la IA, aprobada por el Parlamento Europeo el 13 de marzo de 2024 y que entró en vigor meses después, el 1 de agosto. Ahora España adapta esa ley para un propósito claro.
España contra los deepfakes.El ministro de Transformación Digital y de la Función Pública, Óscar López, explicaba que "La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o para difundir bulos y atacar la democracia".
No etiquetar contenidos de IA, infracción grave. Este anteproyecto de ley considera como infracción grave no cumplir con el etiquetado de textos, vídeos o audios generados con IA para identificarlos de froma adecuada. Es algo en lo que la UE lleva insistiendo desde junio de 2023, pero hay dos problemas: que casi nadie lo está haciendo de momento.
Multas colosales. El ministro no concretó cómo realizar ese etiquetado, y según sus palabras, será la AESIA la que ponga las normas para ese etiquetado. Como ya estableció la Ley de la IA, incumplir la normativa plantea multas de hasta 35 millones de euros y/o entre el 5 y el 7% de la facturación mundial de la empresa infractora.
Iniciativas para etiquetar: haberlas, haylas. La necesidad de etiquetar textos, imágenes, vídeos y audios es evidente, pero por ahora no hay una alternativa universal y aceptada. Google propuso su propia solución en mayo de 2023 y la remozó en octubre de 2024 con SynthID, que se puede aplicar hasta en textos cortos y ya es usada por Gemini. Adobe también se lanzó pronto a intentar solucionar el problema. Meta tiene sus propias marcas de agua para audios generados por IA. Hasta OpenAI se unió al esfuerzo con un combo de un símbolo CR ("content CRedentials", también impulsado por Adobe) visible y una marca de agua invisible en las imágenes generadas con IA.

El estándar C2PA y la búsqueda del consenso. La propuesta más destacable en este sentido es la del estándar C2PA (Coalition for Content Provenance and Authenticity). Esta coalición gestiona tecnologías como la citada especificación Content Credentials para etiquetar contenidos generado spor IA. Muchas de las principales empresas de IA están en ese grupo, incluyendo a OpenAI, Amazon, Google, Meta o Microsoft, pero hay una gran ausencia: Apple, que (inexplicablemente) no parece pronunciarse al respecto.
¿Dónde están las etiquetas de IA? A pesar de que la tecnología de etiquetado está ahí, no acaba de ser utilizada ampliamente. Hay casos aislados: Meta comenzó a etiquetar imágenes en Instagram o Facebook, pero está teniendo problemas para realizar ese etiquetado, que se intenta aplicar a contenidos ya publicados. YouTube también ha dado pasos en ese sentido y Google comienza a implementarlo en su buscador y sus anuncios. Hasta fabricantes como Sony o Leica etiquetan sus fotos en algunas de sus cámaras.
Etiquetarlo todo, esté o no hecho con IA. Lo ideal (¿la utopía?) sería que cualquier contenido estuviera etiquetado de dos formas: o está hecho con asistencia de IA, o es un contenido en el que la IA no ha ayudado. El ejemplo perfecto lo tenemos en las apps de cámara de nuestros móviles con Android o iOS: esas imágenes y vídeos deberían estar etiquetadas con algo similar a un "contenido sin IA", por ejemplo. Es lo que plantean las cámaras de Sony o Leica, pero impone un problema enorme para todo el segmento hardware y software.
Necesitamos que la adopción se dispare. Las empresas parecen tener claro que algo así es necesario y razonable, pero ponerlo en marcha está siendo un proceso especialmente largo y complejo. El etiquetado criptográfico es probablemente la mejor opción para evitar que los deepfakes se conviertan en una amenaza aún más importante, pero aquí hay un paso decisivo: que las empresas adopten estas medidas. Aunque sea poco a poco.
Ver 41 comentarios
41 comentarios
Lynx939
Con tal de seguir robando y llevándoselo calentito, el Gobierno de España quiere muchas cosas.
wiredbrain
Nadie va a etiquetar las imágenes generadas por IA
royendershade
Pues por una vez me parece bien este tipo de medidas. No va a arreglar el problema, pero al menos posibilitará denunciar y revisar estas cosas, y obligara a actores de determinado tamaño a cuidar lo que publican.
mistercarter7
otra tontuna más como el supuesto fin de las llamadas comerciales...
zoompyy
Se abre una peligrosa veda... Cómo clasificamos las fotos de redes sociales modificadas con filtros? Qué son los filtros sino un sistema de resaltar/eliminar/mejorar/retocar elementos de una foto original con métodos inteligentes avanzados y un proceso previo de entrenamiento? O los filtros son capaces de identificar y disimular un lunar por ciencia infusa? Eso es IA también. Generativa además.
Cosa diferente, por supuesto, a que sea un editor gráfico con su software el que lo haga para una revista, por ejemplo, donde generalmente incluso se puede leer el típico "Fotografía de Fulánez Mengánez".
matt
Burda excusa para recaudar mas dinero.
Es querer tapar el sol con el dedo
pspaj
Otra manera de escudarse los politicuchos por salir en videos "ofendiéndoles".
Multa, multa, ....
zoompyy
"Muchas de las principales empresas de IA están en ese grupo, incluyendo a OpenAI, Amazon, Google, Meta o Microsoft, pero hay una gran ausencia: Apple, que (inexplicablemente) no parece pronunciarse al respecto."
XD
macuesto
MIentras lo que hagan lo hagan bien, pues vale. Pero legislar para cagarla, pues que se queden quietos
luzbel2
Crearan herramientas para eliminar las etiquetas y asunto arreglado. Solo ponen puertas al campo como prohibir el porno.
Itopo
No me parece mal, pero España no es el mundo así que difícilmente será aplicable en la realidad
gabriel_
Objetivo: controlar la manipulación, desinformación. Puede ser útil incluso para el contenido que crean pederastas en redes.
La gente: "que me denuncien", "sólo saben robar", "otra medida para recaudar". De verdad. Qué país... Esto lo llega a proponer otro país y hay gente aquí criticando que estarían aplaudiendo con las orejas. Pero como es made in Spain... toca criticar y desprestigiar.
memento2x
Que pongan que todo está generado por IA, ya que si usamos filtros, retoques, mejora automática de fotos, desenfoque o otras muchas cosas ya estamos modificando por IA. Las fotos con los móviles en sí 99% están el algún momento modificadas por IA aunque no nos demos cuenta.
Y la edición de fotos, era posible desde la invención de la fotografía hace más de 100 años.
Pero aquí no hablan solo de fotos, también puede ser texto, por lo que los sistemas de corrección automática, pegar algún fragmento de un texto generado por IA Generativa o una traducción o line también tendrían que etiquetarse.
Y si hablamos de audio, aplicar una reducción de ruido.
Entonces, si etiquetamos todo¿que sentido tiene etiquetar?
ikki.fenix.15.08
A mi que me denuncien directamente! Paso de mas pajas mentales, estos mafias del gobierno con tal de robar se inventan cada estupidez...
josepturonvinas
El objetivo: controlarlo todo.
La solución es: si se llega a obligar a etiquetar todo lo hecho por la IA, lo que hay que hacer es etiquetar también todo lo que no ha hecho una IA exactamente de la misma manera para que, así, la norma deje de tener ninguna utilidad.
alexfernandez4
Por lo que sea tiene más clara la multa que el motivo de la misma o cómo actuar en consecuencia.
fomlimalma
Españistan, potencia mundial en perder el tiempo con leyes inutiles
georgeorwell1984
Lo veo bien. La gente de más de 30 años se creen cualquier vídeo de IA que claramente se ve falso.