964 359 359

Actualidad

Configurar el futuro digital de Europa: Ley de IA

12/09/2024 - Actualidad

La Ley de IA es el primer marco jurídico sobre IA, que aborda los riesgos de la IA y posiciona a Europa para desempeñar un papel de liderazgo a nivel mundial.

La Ley de IA [Reglamento(UE) 2024/1689 por el que se establecen normas armonizadas sobre inteligencia artificial]ofrece a los desarrolladores e implementadores de IA requisitos y obligaciones claros en relación con los usos específicos de la IA. Al mismo tiempo, el Reglamento pretende reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas (pymes).

La Ley de IA forma parte de un paquete más amplio de medidas políticas para apoyar el desarrollo de una IA fiable, que también incluye el paquete de innovación en materia de IA y el plan coordinado sobre IA. En conjunto, estas medidas garantizan la seguridad y los derechos fundamentales de las personas y las empresas en lo que respecta a la IA. También refuerzan la adopción, la inversión y la innovación en IA en toda la UE.

La Ley de IA es el primer marco jurídico integral sobre IA en todo el mundo. El objetivo de las nuevas normas es fomentar una IA fiable en Europa y fuera de ella, garantizando que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos y abordando los riesgos de modelos de IA muy potentes e impactantes.

¿Por qué necesitamos normas sobre la IA?

La Ley de IA garantiza que los europeos puedan confiar en lo que la IA tiene para ofrecer. Si bien la mayoría de los sistemas de IA presentan un riesgo limitado o nulo y pueden contribuir a resolver muchos retos sociales, determinados sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.

Por ejemplo, a menudo no es posible averiguar por qué un sistema de IA ha tomado una decisión o predicción y ha tomado una acción en particular. Por lo tanto, puede ser difícil evaluar si alguien ha sido injustamente desfavorecido, como en una decisión de contratación o en una solicitud de un plan de beneficios públicos.

Aunque la legislación vigente ofrece cierta protección, es insuficiente para abordar los retos específicos que pueden plantear los sistemas de IA.

Las nuevas normas:

  • abordar los riesgos creados específicamente por las aplicaciones de IA
  • prohibir las prácticas de IA que planteen riesgos inaceptables;
  • determinar una lista de aplicaciones de alto riesgo
  • establecer requisitos claros para los sistemas de IA para aplicaciones de alto riesgo;
  • definir obligaciones específicas para los implementadores y proveedores de aplicaciones de IA de alto riesgo;
  • exigir una evaluación de la conformidad antes de que un sistema de IA determinado se ponga en servicio o se introduzca en el mercado;
  • aplicar el cumplimiento después de que se introduzca en el mercado un sistema de IA determinado;
  • establecer una estructura de gobernanza a escala europea y nacional

Un enfoque basado en el riesgo

El marco regulador define cuatro niveles de riesgo para los sistemas de IA:

pirámide que muestra los cuatro niveles de riesgo: Riesgo inaceptable; Alto riesgo; riesgo limitado, riesgo mínimo o nulo

 

Todos los sistemas de IA considerados una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas están prohibidos, desde la puntuación social por parte de los gobiernos hasta los juguetes que utilizan asistencia de voz que fomentan comportamientos peligrosos.

Alto riesgo

Los sistemas de IA identificados como de alto riesgo incluyen la tecnología de IA utilizada en:

  • infraestructuras críticas (por ejemplo, el transporte), que podrían poner en peligro la vida y la salud de los ciudadanos
  • formación educativa o profesional, que puede determinar el acceso a la educación y el curso profesional de la vida de una persona (por ejemplo, puntuación de los exámenes)
  • componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robot)
  • empleo, gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de CV para procedimientos de contratación)
  • servicios públicos y privados esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo)
  • aplicación de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de las pruebas)
  • gestión de la migración, el asilo y el control fronterizo (por ejemplo, examen automatizado de las solicitudes de visado)
  • administración de justicia y procesos democráticos (por ejemplo, soluciones de IA para buscar resoluciones judiciales)

Los sistemas de IA de alto riesgo están sujetos a obligaciones estrictas antes de que puedan introducirse en el mercado:

  • sistemas adecuados de evaluación y mitigación de riesgos
  • alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios
  • registro de la actividad para garantizar la trazabilidad de los resultados
  • documentación detallada que proporcione toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su conformidad
  • información clara y adecuada al implementador
  • medidas adecuadas de supervisión humana para minimizar el riesgo
  • alto nivel de robustez, seguridad y precisión

Todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. El uso de la identificación biométrica remota en espacios de acceso público con fines policiales está, en principio, prohibido.

Se definen y regulan estrictamente excepciones limitadas, como cuando sea necesario para buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave.

Dichos usos están sujetos a la autorización de un órgano judicial u otro organismo independiente y a límites adecuados en el tiempo, el alcance geográfico y las bases de datos consultadas.

Riesgo limitado

El riesgo limitado serefiere a los riesgos asociados con la falta de transparencia en el uso de la IA. La Ley de IA introduce obligaciones específicas de transparencia para garantizar que los seres humanos estén informados cuando sea necesario, fomentando la confianza. Por ejemplo, cuando se utilizan sistemas de IA como los chatbots, los humanos deben ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada de continuar o dar un paso atrás. Los proveedores también deben garantizar que el contenido generado por la IA sea identificable. Además, el texto generado por la IA publicado con el fin de informar al público sobre asuntos de interés público debe etiquetarse como generado artificialmente. Esto también se aplica al contenido de audio y video que constituye falsificaciones profundas.

Riesgo mínimo o nulo

La Ley de IA permite el uso gratuito de IA de riesgo mínimo. Esto incluye aplicaciones como videojuegos habilitados para IA o filtros de spam. La gran mayoría de los sistemas de IA utilizados actualmente en la UE entran en esta categoría.

¿Cómo funciona todo esto en la práctica para los proveedores de sistemas de IA de alto riesgo?

 

Proceso paso a paso para la declaración de conformidad

How does it all work in practice for providers of high risk AI systems?

 

Una vez que un sistema de IA está en el mercado, las autoridades están a cargo de la vigilancia del mercado, los implementadores garantizan la supervisión y el seguimiento humanos, y los proveedores cuentan con un sistema de seguimiento posterior a la comercialización. Los proveedores y los implementadores también informarán de incidentes graves y fallos de funcionamiento.

Una solución para el uso fiable de grandes modelos de IA

Cada vez más, los modelos de IA de propósito general se están convirtiendo en componentes de los sistemas de IA. Estos modelos pueden realizar y adaptar innumerables tareas diferentes.

Si bien los modelos de IA de propósito general pueden permitir soluciones de IA mejores y más potentes, es difícil supervisar todas las capacidades.

Allí, la Ley de IA introduce obligaciones de transparencia para todos los modelos de IA de propósito general para permitir una mejor comprensión de estos modelos y obligaciones adicionales de gestión de riesgos para modelos muy capaces e impactantes. Estas obligaciones adicionales incluyen la autoevaluación y la mitigación de los riesgos sistémicos, la notificación de incidentes graves, la realización de pruebas y evaluaciones de modelos, así como los requisitos de ciberseguridad.

Legislación preparada para el futuro

Como la IA es una tecnología en rápida evolución, la regulación tiene un enfoque a prueba de futuro, lo que permite que las reglas se adapten al cambio tecnológico. Las aplicaciones de IA deben seguir siendo fiables incluso después de su introducción en el mercado. Esto requiere una gestión continua de la calidad y el riesgo por parte de los proveedores.

Cumplimiento y aplicación

La Oficina Europea de IA, creada en febrero de 2024 en el seno de la Comisión, supervisa el cumplimiento y la aplicación de la Ley de IA con los Estados miembros. Su objetivo es crear un entorno en el que las tecnologías de IA respeten la dignidad humana, los derechos y la confianza. También fomenta la colaboración, la innovación y la investigación en IA entre varias partes interesadas. Además, participa en el diálogo y la cooperación internacionales sobre cuestiones de IA, reconociendo la necesidad de una alineación global en la gobernanza de la IA. A través de estos esfuerzos, la Oficina Europea de IA se esfuerza por posicionar a Europa como líder en el desarrollo ético y sostenible de las tecnologías de IA.

Próximos pasos

La Ley de IA entró en vigor el 1 de agosto y será plenamente aplicable 2 años después, con algunas excepciones: las prohibiciones surtirán efecto al cabo de seis meses, las normas de gobernanza y las obligaciones para los modelos de IA de uso general serán aplicables al cabo de doce meses y las normas para los sistemas de IA —integrados en productos regulados— se aplicarán al cabo de treinta y seis meses. Para facilitar la transición al nuevo marco regulador, la Comisión ha puesto en marcha el Pacto sobre la IA, una iniciativa voluntaria que pretende apoyar la futura aplicación e invita a los desarrolladores de IA de Europa y de fuera de ella a cumplir con antelación las obligaciones clave de la Ley de IA.

Fuente: European Commission Website

Audiovisual: Photographer: Ferenc Isza European Union, 2011 Source: EC - Audiovisual Service