Torneo Delibera
Aprobada Ley Europea de Inteligencia Artificial
15 Mayo 2024

El pasado 13 de Marzo, el Parlamento Europeo aprobó con amplia mayoría la Ley de Inteligencia Artificial (EU AI Act) que garantiza la seguridad y el cumplimiento de los derechos fundamentales, al tiempo que impulsa la innovación. La ley es pionera en regular y normar el diseño, desarrollo y difusión social de la Inteligencia Artificial.
La Ley europea de Inteligencia Artificial (IA) tiene como objetivo proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental frente a la IA de alto riesgo, al tiempo que impulsa la innovación y establece a Europa como líder en este campo. Busca establecer un marco regulatorio armonizado para promover una IA confiable y al mismo tiempo garantizar el respeto de los derechos y valores fundamentales.
La ley establece obligaciones para los sistemas IA en función de sus riesgos potenciales y nivel de impacto, en la seguridad, los derechos fundamentales y los valores sociales. A mayor riesgo, mayor es la regulación. Las categorías de riesgo son:
-
Mínimo (por ej. Videojuegos, filtro de spam)
-
Limitado (por ej. Chatbox, Deep Fake)
-
Alto (uso de IA en educación, transporte, salud, seguridad y aplicación de la ley)
-
Inaceptable (por ej. puntuación social)
Los sistemas de IA de riesgo Mínimo no está regulado, las que incluyen a la mayoría de las aplicaciones de IA actualmente disponibles en el mercado europeo. Los sistemas IA de riesgo Limitado, están sujetos a obligaciones de transparencia: los desarrolladores e implementadores deben garantizar que los usuarios finales sean conscientes de que están interactuando con IA (chatbots y deepfakes).
Para los sistemas de IA considerados de Alto riesgo, la regulación impone requisitos más estrictos. Ejemplos de usos de IA de alto riesgo incluyen infraestructura crítica, educación y capacitación vocacional, empleo, servicios públicos y privados esenciales (por ejemplo, atención médica, banca), ciertos sistemas de aplicación de la ley, migración y gestión de fronteras, justicia y procesos democráticos (por ejemplo, influir en las elecciones).
Lo requisitos para sistemas IA de alto riesgo incluyen la calidad de los datos, documentación, transparencia, supervisión humana y solidez, a saber:
-
Evaluación de riesgos
-
Conjuntos de datos de alta calidad
-
Registros de actividad (Trazabilidad)
-
Documentación completa y explicable
-
Información y transparencia para el usuario
Los desarrolladores de sistemas IA de alto riesgo deben someterse a un proceso de evaluación de conformidad y obtener una certificación antes de comercializar sus productos en el mercado de la UE. Este proceso implica evaluar el cumplimiento de los requisitos de la regulación y garantizar el cumplimiento de los principios éticos. Dichos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y garantizar la supervisión humana. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en IA.
Para los sistemas de IA de propósito general (GPAI), y los modelos GPAI en los que se basan, deben cumplir ciertos requisitos de transparencia, incluido el cumplimiento de la ley de derechos de autor de la UE y la publicación de resúmenes detallados del contenido utilizado para la capacitación. Los modelos GPAI más potentes que podrían plantear riesgos sistémicos enfrentarán requisitos adicionales, incluida la realización de evaluaciones de modelos, la evaluación y mitigación de riesgos sistémicos y la presentación de informes sobre incidentes.
Se prohiben las prácticas de IA que se clasifican Inaceptable y plantean riesgos importantes para los derechos y la seguridad de los ciudadanos. Esto incluye sistemas de IA que manipulan el comportamiento humano, utilizan técnicas subliminales, explotan a grupos vulnerables o participan en puntuaciones sociales con fines gubernamentales.
Por ejemplo, los sistemas de categorización biométrica basados en características sensibles y la extracción no selectiva de imágenes faciales de Internet o imágenes de para crear bases de datos de reconocimiento facial. También estarán prohibidos el reconocimiento de emociones en el lugar de trabajo y las escuelas, la puntuación social, la vigilancia policial predictiva (cuando se base únicamente en perfilar a una persona o evaluar sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
La ley establece mecanismos de vigilancia y aplicación del mercado para garantizar el cumplimiento de sus disposiciones. Esto incluye designar autoridades nacionales competentes responsables de la supervisión y el cumplimiento, así como imponer sanciones por incumplimiento. Será necesario establecer entornos de pruebas regulatorios y pruebas en el mundo real a nivel nacional, y hacerlos accesibles a las pymes y las empresas emergentes, para desarrollar y capacitar una IA innovadora antes de su comercialización.