Tipos de sistemas de IA
Sistemas de IA de propósito General
Estos requisitos serán los que se aplican a los Sistemas de Inteligencia Artificial de Alto Riesgo, pero adaptados a los GPAIS mediante un acto de ejecución de la Comisión Europea que seguirá a la promulgación del Reglamento. Los GPAIS quedarán libres de esos requisitos cuando el proveedor excluya explícitamente en su documentación todo uso de alto riesgo. Si este proveedor detecta o es informado de mal uso, tendrá que tomar las medidas necesarias.
Se prohíben los siguientes sistemas de IA:
Que distorsionen el comportamiento de las personas
Que exploten vulnerabilidades de las personas
Que elaboren perfiles de las personas
Se prohíbe el uso para aplicaciones policiales o de orden público de la identificación biométrica en tiempo real en lugares accesibles al público por parte de las fuerzas y cuerpos de seguridad, o en su nombre, salvo en casos de:
- búsqueda de víctimas potenciales de delitos;
- prevención de amenazas específicas y sustanciales sobre infraestructuras críticas o sobre personas físicas;
- prevención de ataques terroristas; y persecución de crímenes punibles con más de cinco años de privación de libertad.
Antes se valorará la probabilidad y escala del daño posible sin esos sistemas y del daño que esos podrían ocasionar; mediará autorización judicial o administrativa; y se impondrán limitaciones temporales, geográficas y personales.
Fuera de estos casos, la identificación biométrica también está sujeta al RGPD 2016/679 y la Directiva de tratamiento de datos personales por las autoridades 2016/680.
Sistemas de IA de alto riesgo
Son sistemas IA de alto riesgo:
- Implementaciones con IA de productos o componentes de seguridad de productos que ya estén cubiertos por legislación europea armonizada, y que por tanto estén sujetos a evaluación de conformidad por parte de un tercero (como por ejemplo, dispositivos médicos, ferrocarriles, aviones o maquinaria). Estas normas armonizadas se enumeran en el Anexo II del Reglamento.
- Los que enumera el Anexo III, que los clasifica en las categorías que se enumeran a continuación, cuando la salida que producen sea relevante en una decisión con posible riesgo sobre la salud, la seguridad o los derechos fundamentales.
- Sistemas de identificación biométrica (los que identifiquen personas sin su participación activa, recordando la prohibición existente para las fuerzas y cuerpos de seguridad mencionada antes.
- Gestión de infraestructuras críticas (como el tráfico, la electricidad o el agua).
- Educación y formación profesional (como gestión del acceso a la educación o planificación del desarrollo académico).
- Selección de personal y gestión de las relaciones laborales.
- Gestión del acceso de las personas a servicios esenciales públicos y privados (como beneficios sociales, servicios de emergencia, crédito o seguros).
- Actividades de fuerzas y cuerpos de seguridad (como valoración de pruebas o de sospechosos).
- Migración, asilo y control de fronteras (como polígrafos, o valoración de solicitudes).
- Administración de justicia y procesos democráticos.
La Comisión tiene una capacidad limitada para añadir o retirar sistemas de estas categorías.
Requisitos de los sistemas de IA de alto riesgo
Se impone una serie de exigencias que los proveedores de sistemas de alto riesgo deben cumplir:
1. Sistema de gestión de riesgos
2. Gobernanza y gestión de los datos de entrenamiento y prueba
Los sistemas irán acompañados de documentación técnica actualizada, que demuestre que se cumplen los requisitos exigidos. Se especifica un contenido mínimo, que la Comisión puede enmendar.
- Los sistemas tomarán automáticamente registros de actividad del sistema.
- Se aportará información a los usuarios sobre las capacidades del sistema, sus requisitos de equipamiento, su ámbito de aplicación, su nivel de precisión, las condiciones de utilización que pueden implicar riesgos, los sistemas para supervisión humana, etc.
- Los sistemas permitirán la supervisión por personas durante su uso para minimizar los riesgos a la salud, seguridad y derechos fundamentales, en particular de los riesgos residuales tras la aplicación de medidas de mitigación. Los usuarios podrán monitorizar los sistemas e interpretar sus salidas. Para identificación biométrica remota, la salida requerirá verificación por una persona física, posiblemente dos.
- Los sistemas proporcionaran un nivel adecuado de precisión, robustez y ciberseguridad, que se declarará en la documentación que los acompaña. Se diseñarán con tolerancia a errores o inconsistencias en su interacción con su entorno, en particularidad con personas u otros sistemas. Incorporarán medidas de ciberseguridad apropiadas y proporcionadas a sus circunstancias, en particular de protección contra la manipulación de los datos de entrenamiento