Análisis

La ley europea de Inteligencia Artificial, primer paso para gestionar el impacto social de esta tecnología

Es uno de los ‘recursos’ en los que debemos trabajar para conseguir un impacto positivo de la IA

La secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, durante la rueda de prensa en el Parlamento Europeo tras el acuerdo sobre la "AI Act".

La secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, durante la rueda de prensa en el Parlamento Europeo tras el acuerdo sobre la "AI Act". / Parlamento Europeo

Idoia Salazar

La primera ley del mundo que regula la IA, que deberá comenzar a implementarse a finales de 2026, es una referencia global en el camino para conseguir un equilibrio entre el impulso a esta gran tecnología y la salvaguarda de los principios éticos y los derechos fundamentales y nuestra seguridad. El AI act está logrado, pero la educación en el impacto de la IA en la sociedad, todavía no. 

Idoia Salazar (*)

La aprobación del Artificial Inteligence Act (AI Act) tiene una importancia muy reseñable en el impacto de esta tecnología a nivel social y profesional. Y no solo entre los ciudadanos europeos. Generará una mayor confianza en el mercado, y en la sociedad, y minimizará, con la suficiente eficiencia (al menos por ahora), los posibles casos negativos derivados del uso o desarrollo de esta tecnología.

La regulación está muy centrada en la prevención del riesgo sobre los derechos fundamentales, la seguridad y la salud, y está elaborada en base a dicho riesgo. De esta manera se espera que no motive una ralentización del uso y desarrollo de estas tecnologías y sí proteja a las personas de sus efectos menos deseados. Nos ha hecho bastante más conscientes de estos últimos.

Referencia mundial

Sin duda supondrá una referencia mundial en el camino para conseguir un equilibrio entre el impulso a esta gran tecnología y la salvaguarda de los principios éticos y los derechos fundamentales y nuestra seguridad. ¡Y esto no es nada fácil!

Es un logro importante del equipo pertinente del Consejo de Europa, Comisión Europea, Parlamento Europeo, y resto de implicados.

La ley ha sido desarrollada de la mejor manera posible, manteniendo una actitud abierta y colaborativa. Escuchando los intereses industriales de los distintos países (con lo que implica…), y primando la defensa de los derechos fundamentales, algo que el Parlamento Europeo ha hecho con gran eficiencia y rigurosidad.

Más de 2 años de trabajo, …con ChatGPT de por medio, además de otras vicisitudes que al final han dado su fruto más palpable. Y era importante que se aprobara ya…para que empecemos a ver su impacto cuanto antes. La Ley entrará en vigor a finales de 2026. Y no hay tiempo que perder…

Fase crítica

Empieza ahora una fase no tan agradable para muchas empresas, sobre todo para aquellas que, presumiblemente, estén desarrollando o usando Sistemas de IA de alto riesgo.

Deben estudiar la regulación, entenderla, y establecer las medidas técnicas necesarias para cumplirla. Sin duda ayudará la labor del sandbox regulatorio español, en el que el Observatorio del Impacto Social y Ético de la IA (OdiseIA) está colaborando junto con la Secretaría de Estado de Digitalización e IA, para su consecución.

Aportará herramientas y guías, de fácil seguimiento, para todo aquel que quiera/tenga que adecuarse a los requerimientos del AI act. También el ‘Sello Nacional’ que se está desarrollando en España, y en el que también colabora OdiseIA, aportará confianza y estabilidad al mercado.

Algo muy necesario. En mi opinión se están delimitando, bastante bien, las vías para conseguir impulsar la IA, pero manteniendo su uso responsable. Y, como decía, no es una labor fácil con una tecnología como esta.

Un recurso

Sin embargo, es importante tener en cuenta que la aprobación del AI ACT es solo uno de los ‘recursos’ en los que debemos trabajar para conseguir un impacto positivo de la IA.

Aún queda mucho por hacer y una de las cuestiones claves de este ‘mucho’ es la formación, a todos los niveles. Es decir, la adecuación de los conocimientos de nuestra sociedad para recibir el impacto de la IA, independientemente de su edad o condición laboral.

Hay que hacer cambios estructurales en la educación (seguimos anclados en estructuras muy tradicionales), en la manera de formar… Debemos seguir trabajando en acciones que fomenten el espíritu crítico entre la población, principalmente para evitar manipulaciones inconscientes.

Hay que ayudar a comprender a las personas mayores, y a otros públicos vulnerables (que también reciben el impacto, no nos olvidemos). Y todo esto es posible. Aunque quizá más difícil aún que el parto del AI ACT. Desde OdiseIA, a través de su Fundación, trabajaremos aún más en esta vertiente que consideramos vital para que tengamos el impacto más positivo de la IA, sin dejar a nadie por el camino.

En definitiva, hoy se ha dado un gran paso, pero queda mucho por hacer. No hay que echarse a dormir. Algo que nos ha enseñado esta tecnología es que sus posibilidades, para bien y para mal, son imprevisibles y, sin duda, nos seguirán sorprendiendo.

(*) Idoia Salazar es presidenta y fundadora del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA).

Creación artística de Inteligencia Artificial.

Creación artística de Inteligencia Artificial. / Generador de imágenes de la IA de BING para T21/Prensa Ibérica, desarrollada con tecnología de DALL·E.

NORMAS ARMONIZADAS PARA LA IA EN LA UE

La primera ley mundial sobre la IA es un reglamento de la Unión Europea que establece normas armonizadas para el desarrollo y la utilización de la inteligencia artificial (IA) en el mercado interior. La Presidencia del Consejo y los negociadores del Parlamento Europeo alcanzaron el 8 de diciembre un acuerdo provisional sobre esta normativa, que todavía deberá ser ratificado por las dos partes antes de entrar en vigor, previsiblemente a finales de 2026.

La ley tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, no discriminatorios y respetuosos con los derechos fundamentales. Para ello, establece una serie de requisitos y obligaciones para los desarrolladores y usuarios de sistemas de IA.

Categorías

Los sistemas de IA se clasifican en tres categorías según el nivel de riesgo que suponen para los usuarios: 

  • Sistemas de IA de alto riesgo: son aquellos que pueden tener una incidencia directa sobre los derechos fundamentales de las personas, la salud o seguridad, como los sistemas de IA utilizados en la toma de decisiones automatizadas en los ámbitos de la justicia penal, la seguridad pública o la salud. Los sistemas de IA de alto riesgo deben cumplir una serie de requisitos estrictos, como la supervisión humana, la evaluación de riesgos, la transparencia y la trazabilidad.
  • Sistemas de IA de riesgo limitado: son aquellos que pueden causar daños moderados a las personas, como los sistemas de IA utilizados en la publicidad personalizada o la detección de fraude. Los sistemas de IA de riesgo limitado deben cumplir una serie de requisitos menos estrictos que los sistemas de IA de alto riesgo, pero aún así deben ser seguros, transparentes y no discriminatorios.
  • Sistemas de IA de bajo riesgo: son aquellos que no suponen un riesgo significativo para las personas, como los sistemas de IA utilizados en la recomendación de productos o la traducción automática. Los sistemas de IA de bajo riesgo no están sujetos a requisitos específicos, pero deben cumplir las normas generales de la ley, como la prohibición de la discriminación y el respeto de los derechos fundamentales.
Principios generales

La ley europea de IA también establece una serie de principios generales que deben respetarse en el desarrollo y la utilización de sistemas de IA, como los siguientes: 

  • Principio de seguridad: los sistemas de IA deben ser diseñados y desarrollados de manera que se minimicen los riesgos para las personas.
  • Principio de transparencia: los sistemas de IA deben ser transparentes para los usuarios, de modo que puedan entender cómo funcionan y cómo se toman las decisiones.
  • Principio de no discriminación: los sistemas de IA no deben discriminar a las personas por motivos de raza, sexo, religión, origen étnico, orientación sexual, discapacidad o cualquier otra condición personal.
  • Principio de responsabilidad: los desarrolladores y usuarios de sistemas de IA deben ser responsables de los daños causados por sus sistemas.
Hito importante

La ley europea de IA es un hito importante en el desarrollo de la IA en la UE. Es la primera ley mundial que regula la IA, y tiene como objetivo garantizar que la IA se desarrolle y utilice de manera segura, responsable y respetuosa con los derechos fundamentales.