Tecnología para los negocios - Ley de Inteligencia Artificial en Europa: ¿Son compatibles la IA, la ciberseguridad y el desarrollo?


Ley de Inteligencia Artificial en Europa: ¿Son compatibles la IA, la ciberseguridad y el desarrollo?

El pasado 8 de diciembre, la UE y los países miembros llegaron a un acuerdo para aprobar la primera Ley de Inteligencia Artificial o AI Act. De esta forma, consiguieron superar los escollos existentes, sobre todo, en cuanto a los sistemas de vigilancia biométrica y los modelos de IA generativa.

Este proceso de negociación que ahora culmina, se inició el pasado 16 de junio. Este día, el Parlamento Europeo, tras un intenso debate y votación de enmiendas, aprobó el texto definitivo de la ley europea de IA. También establecía las condiciones de ese proceso, ya que, por implicaciones de competencias ajenas a la UE, debían participar los Estados miembros. Ahora, solo queda la ratificación del texto definitivo por parte de la Eurocámara y su publicación en el DOCE. Desde TicNegocios de la Cámara, queremos hablaros de estas novedades.

Ley Europea de Inteligencia Artificial

El 21 de abril de 2021, la Comisión Europea propuso un reglamento para establecer los límites éticos y legales de la IA. Esta propuesta giraba en torno a un enfoque sobre los riesgos que asumían los usuarios. De este modo, establecía una serie de categorías de peligro que implicaban un determinado nivel de regulación. En líneas generales, se establecieron tres:

  • Riesgo limitado. Han de cumplir unos requisitos mínimos de transparencia para que los usuarios decidan informadamente en todo momento si quieren seguir usando una aplicación de IA. Por otro lado, también deben proporcionarles la información de cuándo interactúan con esta tecnología.
  • Alto riesgo. Son sistemas que afectan a la seguridad o a los derechos fundamentales. A su vez, se clasifican en dos grupos:
  1. Los sistemas que utilizan los artículos sujetos a la legislación de la UE de seguridad de los productos. Es el caso de los juguetes, coches o dispositivos médicos, entre otros.
  2. Los sistemas de IA de ocho ámbitos específicos. Estos deben registrarse en una base de datos de la UE. Se concretan en: identificación biométrica y categorización, infraestructuras críticas, educación, empleo, servicios públicos y servicios privados esenciales, aplicación de la ley, asistencia en su interpretación jurídica, y control de fronteras y gestión de la migración.
  • Riesgo inaceptable. Estos quedan completamente prohibidos, salvo para resolver delitos muy graves y siempre que dispongan de una previa aprobación judicial.

La Ley de Inteligencia Artificial europea protege a las pymes

Consideraciones básicas y entrada en vigor de la Ley

Una vez ratificada esta ley por la Eurocámara, se publicará en el DOCE. Como el procedimiento es por vía ordinaria, su entrada en vigor se prevé 20 meses después de su publicación. Por tanto, será en el segundo semestre de 2026 cuando esto ocurra. No obstante, los Estados pueden ir aprobando normas acordes a ella y proceder a su regulación.

Además de la categorización por niveles de riesgo de los sistemas de IA, hay algunos aspectos básicos en esta ley, que debéis conocer. Os señalamos algunos.

Evaluación de impacto obligatoria de los derechos fundamentales

Se aplicará a los sistemas de IA considerados de riesgo alto, a los seguros y a la banca. Igualmente, se consideran parte de este grupo los capaces de incidir en los resultados electorales, así como en el comportamiento de los electores, en general. Por otra parte, se define el derecho de la ciudadanía a presentar quejas y a recibir explicaciones sobre las decisiones basadas en estos sistemas cuando afecten a sus derechos.

Los sistemas de IA de uso general (GPAI)

Todos los GPAI deberán cumplir ciertos requisitos de transparencia. Así, por ejemplo, se les pide que elaboren documentación técnica o que cumplan con la legislación europea sobre derechos de autor, entre otras cosas. En el caso de que se trate de un GPAI de alto impacto con riesgo sistémico, las obligaciones son más estrictas. Así, deben reducir esos riesgos, efectuar evaluaciones, hacer ensayos contradictorios, informar a la Comisión si se producen incidentes graves, etc.

Apoyo a la innovación y a las pymes

Con este fin, promueven los sandboxes regulatorios para desarrollar y entrenar IA innovadora de manera previa a su comercialización. De esta forma, soslayan la presión de las grandes tecnológicas que controlan la cadena de valor.

Innovación y derechos humanos

La ley europea de IA nace con una clara voluntad de compatibilizar innovación y derechos humanos. Por un lado, garantiza la sostenibilidad medioambiental, la democracia, los Estados de derecho y los derechos fundamentales de la ciudadanía. Y, por otro, apuesta por la innovación y sitúa a Europa en una posición de liderazgo. Así, establece varias obligaciones para las aplicaciones de IA con el propósito de minimizar sus riesgos potenciales o su impacto en los derechos. Os hablamos de algunas de sus prohibiciones:

  1. Los sistemas biométricos de categorización para segmentar a las personas en función de su raza, ideologías políticas o religiosas, etc.
  2. Las extracciones aleatorias de imágenes faciales de Internet o de circuitos cerrados de televisión para crear una base de datos de reconocimiento facial.
  3. Los sistemas de reconocimiento de emociones en los centros de trabajo o educativos.
  4. La evaluación social basada en los comportamientos o en las características personales.
  5. La manipulación para mermar el libre albedrío de las personas. Por ejemplo, los sistemas diseñados para influir en unas elecciones democráticas.
  6. La explotación de la vulnerabilidad de la persona, ya sea esta por edad, por situación económica o social o por discapacidad.

¿Se ha regulado la IA en el resto del mundo?

No. El primer intento de legislación de la IA es la que está llevando a cabo la UE. Lo que sí se ha producido es la elaboración de un documento no vinculante por parte de 18 Estados. Son: Alemania, Australia, Canadá, Corea del Sur, Chequia, Chile, Estados Unidos, Estonia, Francia, Israel, Italia, Japón, Nigeria, Noruega, Nueva Zelanda, Polonia, Reino Unido y Singapur. Sin embargo, se trata de directrices muy básicas, que no ha suscrito ni Rusia ni China y, al no ser vinculante, es posible que no tenga mucho recorrido. Estaremos atentos a su cumplimiento.

Por tanto, la Ley de Inteligencia Artificial viene a regular esta tecnología con una clara determinación a proteger los derechos fundamentales y a las pymes. Aún falta para su plena entrada en vigor, pero auguramos que España comenzará poco a poco a legislar para ir adecuándose a ella. Desde TicNegocios, os animamos a participar en nuestros seminarios al respecto. ¡Participad!

Danos tu opinión

1 Estrella2 Estrellas3 Estrellas4 Estrellas5 Estrellas (No hay valoraciones)
Cargando...

¿Eres un proveedor de soluciones TIC y quieres aparecer en este portal?

¿Eres una empresa y no encuentras lo que estás buscando?


SUSCRÍBETE A NUESTRO NEWSLETTER