El proyecto de Ley de Inteligencia Artificial (Ley AI) fue propuesta por la Comisión en abril de 2021.
Ursula von der Leyen, presidenta de la Comisión Europea, dijo:
“La inteligencia artificial ya está cambiando nuestra vida cotidiana, y esto es sólo el principio.
Si se utiliza de manera inteligente y amplia, la IA promete enormes beneficios para nuestra economía y sociedad. Por lo tanto, acojo con gran satisfacción el acuerdo político alcanzado hoy por el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial.
La Ley de IA de la UE es el primer marco jurídico integral sobre inteligencia artificial en todo el mundo, por lo tanto nos encontramos ante un hecho histórico.
La Ley centra la regulación en riesgos identificables, el acuerdo de hoy fomentará la innovación responsable en Europa.
Al poder garantizar la seguridad y los derechos fundamentales de las personas y las empresas, se impulsará el desarrollo, el despliegue y la adopción de una IA fiable en la UE.
Nuestra Ley de IA hará una contribución sustancial al desarrollo de reglas y principios globales para una IA centrada en el ser humano”.
Las nuevas normas se aplicarán directamente de la misma manera en todos los Estados miembros, sobre la base de una definición de IA preparada para el futuro.
Siguen un enfoque basado en el riesgo»
Riesgo mínimo
La gran mayoría de los sistemas de IA entran en la categoría de riesgo mínimo.
Las aplicaciones de riesgo mínimo, como los sistemas de recomendación basados en IA o los filtros de spam, se beneficiarán de un pase libre y de la ausencia de obligaciones, ya que estos sistemas presentan un riesgo mínimo o nulo para los ciudadanos, sus derechos o su seguridad.
Alto riesgo
Los sistemas de IA identificados como de alto riesgo incluyen esta tecnología utilizada en:
- Infraestructuras críticas (por ejemplo, transporte), que podrían poner en riesgo la vida y la salud de los ciudadanos;
- Formación educativa o profesional, que puede determinar el acceso a la educación y el rumbo profesional de la vida de una persona (por ejemplo, puntuación de los exámenes);
- Componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robot);
- Empleo, gestión de trabajadores y acceso al autoempleo (por ejemplo, software de clasificación de CV para aplicar a procedimientos de contratación);
- Servicios públicos y privados esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo);
- Aplicación de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la confiabilidad de las pruebas);
- Migración, asilo y control de fronteras Gestión (por ejemplo, verificación de la autenticidad de los documentos de viaje);
- Administración de justicia y procesos democráticos (por ejemplo, aplicar la ley a un conjunto concreto de hechos).
Los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de que puedan comercializarse:
- Sistemas adecuados de evaluación y mitigación de riesgos;
- Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar riesgos y resultados discriminatorios;
- Registro de actividad para garantizar la trazabilidad de los resultados;
- Documentación detallada que proporciona toda la información necesaria sobre el sistema y su propósito, para que las autoridades evalúen su cumplimiento;
- Información clara y adecuada al usuario;
- Supervisión humana adecuada, para la aplicación de medidas que minimicen el riesgo;
- Alto nivel de robustez, seguridad y precisión
En particular, todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos.
Está prohibido, en principio, su uso en vivo en espacios de acceso público con fines policiales.
Las excepciones están estrictamente definidas y reguladas (por ejemplo, cuando sea necesario para buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente y/o detectar, localizar, identificar o procesar a un autor o sospechoso de un delito grave).
Dicho uso está sujeto a la autorización de un organismo judicial u otro organismo independiente y a límites apropiados en el tiempo, el alcance geográfico y las bases de datos buscadas.
Riesgo inaceptable:
Los sistemas de IA considerados una clara amenaza para los derechos fundamentales de las personas serán prohibidos.
Esta limitación incluye sistemas o aplicaciones de inteligencia artificial que manipulan el comportamiento humano. Libre albedrío, como juguetes que utilizan asistencia de voz que fomentan comportamientos peligrosos de menores o sistemas que permiten la «puntuación social»; por gobiernos o empresas, y ciertas aplicaciones de vigilancia policial predictiva.
Además, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas o identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con excepciones limitadas).
Riesgo de transparencia específico
Al emplear sistemas de inteligencia artificial como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina.
Los deepfakes y otros contenidos generados por IA deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se están utilizando sistemas de categorización biométrica o reconocimiento de emociones.
Además, los proveedores tendrán que diseñar sistemas de manera que el contenido sintético de audio, vídeo, texto o imágenes esté marcado en un formato legible por una máquina y detectable como generado o manipulado artificialmente.
Multas
Las empresas que no cumplan las normas serán multadas.
Las multas oscilarían entre 35 millones de euros o el 7% de la facturación anual global (lo que sea mayor) por violaciones de aplicaciones de IA prohibidas,15 millones de euros o el 3% por violaciones de otras obligaciones y 7,5 millones de euros o el 1,5% por proporcionar información incorrecta.
IA de propósito general
La Ley de IA introduce reglas específicas para modelos de IA de propósito general que garantizarán la transparencia a lo largo de la cadena de valor. Para modelos muy potentes que podrían plantear riesgos sistémicos, habrá obligaciones vinculantes adicionales relacionadas con la gestión de riesgos y el seguimiento de incidentes graves, la realización de evaluaciones de modelos y pruebas adversas.
Estas nuevas obligaciones se harán operativas mediante códigos de prácticas elaborados por la industria, la comunidad científica, la sociedad civil y otras partes interesadas conjuntamente con la Comisión.
En términos de gobernanza, las autoridades nacionales competentes de vigilancia del mercado, supervisarán la implementación de las nuevas normas a nivel nacional, mientras se crea una nueva Oficina Europea de IA dentro de la Comisión Europea, la cual garantizará la coordinación a nivel europeo.
Esta nueva Oficina de IA también supervisará la implementación y el cumplimiento de las nuevas normas sobre modelos de IA de propósito general.
Junto con las autoridades nacionales de vigilancia del mercado, la Oficina de IA será el primer organismo a nivel mundial que hará cumplir normas vinculantes sobre IA y, por lo tanto, se espera que se convierta en un punto de referencia internacional.
La Ley de IA sería aplicable dos años después de su entrada en vigor, salvo algunas disposiciones específicas: las prohibiciones ya se aplicarán después de 6 meses, mientras que las normas de uso general se aplicarán después de 12 meses.
Para salvar el período transitorio antes de que el Reglamento sea de aplicación general, la Comisión lanzará un Pacto sobre IA.
Convocará a desarrolladores de IA de Europa y de todo el mundo, que se comprometan de forma voluntaria a implementar las obligaciones claves de la Ley de IA antes de los plazos legales.
Para promover normas sobre una IA fiable a nivel internacional, la Unión Europea seguirá trabajando en foros como el G7, la OCDE, el Consejo de Europa, el G20 y las Naciones Unidas.