La Ley de IA de la Unión Europea entró en vigor el pasado 1 de agosto de 2024, y ayer la Comisión Europea publicó un comunicado en el que se revelaban los usos y prácticas prohibidas de IA.
Dichas "prácticas de IA prohibidas" están detalladas en el propio texto de la Ley de IA. En concreto, en su artículo 5. El objetivo es tratar de cubrir una serie de casos en los que la IA puede intentar interactuar con las personas, tanto a través de aplicaciones para consumidores como a través de entornos físicos.

La regulación europea definió cuatro niveles de riesgo para los sistemas de IA que van desde el riesgo mínimo (filtros de spam) al riesgo inaceptable, considerados como sistemas como una amenaza para la seguridad. Entre las actividades inaceptables están las siguientes:
- IA para puntuación social, lo que permite crear perfiles de riesgo basadas en el comportamiento de las personas.
- IA manipuladoras capaces de afectar las decisiones de las personas de forma subliminal o mediante engaños.
- IA que explota vulnerabilidades como la edad, la discapacidad o el nivel socioeconómico de los usuarios.
- IA que intenta predecir si la gente cometerá crímenes basándose en su apariencia
- IA que usa la biometría para inferir las características de una persona, como su orientación sexual
- IA que recolecta datos biométricos en tiempo real en sitios públicos con fines de seguridad policial
- IA que registra y trata de inferir las emociones de los usuarios tanto en el lugar de trabajo como en las instituciones académicas
- IA que crea o amplía las bases de datos de reconocimiento facial recolectando imágenes online o a través de cámaras de seguridad
Las empresas que violen esa normativa se enfrentarán a multas de hasta 35 millones de euros o de hasta el 7% de sus ingresos anuales el año fiscal anterior, la cifra que sea mayor. Y esas multas afectan a cualquier empresa, sin importar dónde tenga instalada su sede.
El pasado mes de septiembre 100 empresas firmaron el Pacto de IA de la UE, una iniciativa voluntaria para impulsar la aplicación de los principios de la Ley de IA. Entre los firmantes estaban gigantes como Amazon, Google y OpenAI, y todos se comprometieron a identificar sistemas de IA potencialmente calificados como de alto riesgo.
Hay no obstante algunas excepciones a esos usos prohibidos de la IA. Así, por ejemplo la Ley de la IA permite que las agencias de seguridad puedan usar ciertos sistemas de recolección de datos biométricos —como nuestra cara— si esos sistemas ayudan a realizar "búsquedas dirigidas" para por ejemplo víctimas de secuestros o a evitar amenazas inminentes a las personas. Eso validaría usos como el que recientemente conocimos en Madrid.
Los países de la Unión Europea tienen hasta el 2 de agosto para designar qué autoridades vigilarán este mercado y garantizarán el cumplimiento de las reglas de la ley de IA. La pregunta, es el impacto que esto tendrá en la disponibilidad de funciones de IA en la UE.
Dado que se habla de sistemas de alto riesgo, ese impacto debería ser mínimo, pero el resto del marco regulatorio —con la DMA como protagonista— sí plantea un obstáculo importante para que en la UE disfrutemos de los últimos avances en este campo.
En Xataka | La ley de inteligencia artificial de la UE ha nacido obsoleta. Así que ya está preparando la siguiente
Ver 21 comentarios
21 comentarios
macuesto
Ya será menos Caperucita, que luego empiezan con las rebajas y pagan, si lo hacen, 4 duros
jmj
Anda que dicen un 50%. No, un mísero 7%.
Que sí, dependiendo del volumen de ingresos de la empresa en cuestión puede ser muchísimo dinero, pero a fin de cuentas sigue siendo un ridículo 7%, que teniéndolo en cuenta y asumiéndolo como gasto en sus cuentas no deja de der una pequeña molestia para la empresa.
Claramente esta medida es puramente recaudatoria, porque de lo contrario habrían optado por medidas que pusieran en riesgo la viabilidad de la empresa que se pasara por el forro la ley o, como mínimo, que consiguiera convertir en desastroso un año de facturación
Si al menos lo hubieran hecho progresivo en función de la gravedad/reiteración de la infracción, desde un 7% hasta un 40/50%...
mrwhite55
Sin haber desarrollado nada, ya han creado un chiringuito para regular, y como no multas para recaudar... pero unas multas que llevaran a la ruina a cualquiera.
rafaello76
Hasta el 7% o mínimo el 7%?
derechozapatillas92
Sigan protegiedo delincuentes. Que la IA no pueda utilizarse por la policia. En tiempo real. Con lectura biometrica. Europa esta en caída
jozeico
Pues nada, si robas en el chino de debajo de tu casa 100€, paga 7 de multa y solucionado
angelmoreno4
Deberían haber puesto esto, jajajaja:
Primera Ley
* Una IA no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda Ley
* Una IA debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley
* Una IA debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
augon0
¿Qué tiene de malo el reconocimiento facial?
A mi no me importa que mi cara este en una base de datos y me puedan localizar mediante cámaras. Me preocupa que exista gente a la que si le molesta eso.