Ley de IA de la UE: primera normativa sobre inteligencia artificial

Ley de IA de la UE: primera normativa sobre inteligencia artificial

12-06-2023 – Parlamento Europeo

El uso de la inteligencia artificial en la UE estará regulado por la Ley de Inteligencia Artificial, la primera ley integral sobre IA del mundo. Aquí más información sobre cómo funcionará.

Como parte de su estrategia digital, la UE quiere regular la inteligencia artificial (IA) para garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora. La IA puede aportar muchos beneficios, como lo son una mejor asistencia sanitaria, un transporte más seguro y limpio, una fabricación más eficiente y una energía más barata y sostenible.

En abril de 2021, la Comisión propuso el primer marco regulador de la UE para la IA. Propone que los sistemas de IA que puedan utilizarse en distintas aplicaciones se analicen y clasifiquen según el riesgo que supongan para los usuarios. Los distintos niveles de peligro implicarán una mayor o menor regulación. Una vez aprobadas, serán las primeras normas del mundo sobre IA.

Más información sobre qué es y cómo se utiliza la inteligencia artificial.

Qué no puede faltar según el Parlamento en la legislación sobre IA
La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales.

El Parlamento también quiere establecer una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas de IA.

Más información sobre el trabajo del Parlamento en materia de IA y su visión del futuro de la IA.

Ley de IA: normas diferentes para niveles diferentes de riesgo
La nueva normativa establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la IA. Aunque muchos sistemas de IA plantean un riesgo mínimo, es necesario evaluarlos todos.

Riesgo inaceptable
Los sistemas de IA de riesgo inaceptable son los que se consideran una amenaza para las personas y serán prohibidos. Incluyen:

manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños
puntuación social: clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales
sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.
Aunque existen algunas excepciones a esta calificación. Por ejemplo, los sistemas de identificación biométrica a distancia “a posteriori”, en los que la identificación se produce tras un retraso significativo, se permitirán para perseguir delitos graves y sólo cuando haya previa aprobación judicial.

Alto riesgo
Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías.

Los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos. Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.
Los sistemas de IA pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la UE:
identificación biométrica y categorización de personas físicas
gestión y explotación de infraestructuras críticas
educación y formación profesional
empleo, gestión de trabajadores y acceso al autoempleo
acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas
aplicación de la ley
gestión de la migración, el asilo y el control de fronteras
asistencia en la interpretación jurídica y aplicación de la ley.
Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida.

IA generativa
La IA generativa, como ChatGPT, tendría que cumplir requisitos de transparencia:

revelar que el contenido ha sido generado por IA
diseñar el modelo para evitar que genere contenidos ilegales
publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento

Riesgo limitado
Los sistemas de IA de riesgo limitado deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, el usuario puede decidir si desea seguir utilizándolas. Los usuarios deben ser conscientes de cuándo están interactuando con la IA. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes).

Próximos pasos
El 14 de junio de 2023, los eurodiputados adoptaron su posición negociadora sobre la ley de IA. Ahora comenzarán las conversaciones sobre la forma final de la ley en el Consejo, junto a los países de la UE.
El objetivo es alcanzar un acuerdo a finales de este año.