Ciencia y derecho (3)

El Reglamento de la UE sobre la IA plantea un desafío europeo

Debería acompañarse de un compromiso para impulsar la Inteligencia Artificial en Europa, ausente entre los líderes tecnológicos

La UE dispone de un acuerdo de normas armonizadas para la IA.

La UE dispone de un acuerdo de normas armonizadas para la IA. / Europa Press.

Cristina Mesa Sánchez.

El Reglamento de Inteligencia Artificial de la Unión Europea pretende garantizar que los sistemas de IA sean seguros y respeten la legislación vigente, sin afectar la inversión e innovación en IA. La cuestión es que no hay ninguna empresa en la UE entre las compañías que están liderando esta revolución tecnológica, por lo que debería haber venido acompañado por un acuerdo aún más firme para financiar la infraestructura que Europa necesita para no quedarse atrás.

Cristina Mesa Sánchez (*)

La popularización de la inteligencia artificial (IA) en 2023, con ChatGPT como líder indiscutible, se debe en gran medida a su acierto en la experiencia de usuario. Se ha eliminado la fricción, acercando la IA al usuario medio y posibilitando su adopción masiva lo que, como sucede con cualquier revolución tecnológica, nos lleva a plantearnos cuáles son los beneficios y los riesgos a los que nos estamos enfrentado.

Sam Altman, fundador de OpenAI, está convencido de que la supervivencia de la especie humana solo será posible gracias a la IA. Por su parte, líderes de opinión como Yuval Harari o Daron Acemoglu muestran una visión más pesimista. El primero cree que estamos ante el fin de la historia humana. Acemoğlu, por su parte, ve la IA como una mezcla de la imprenta, la máquina de vapor y la bomba atómica.  

Regulación IA pionera

En este contexto, la Unión Europea ha acelerado la aprobación del Reglamento de Inteligencia Artificial que, se supone, será la primera regulación integral de la IA en el mundo.

Tras el acuerdo político alcanzado entre el Consejo y el Parlamento de la Unión Europea, se espera que el texto final se apruebe en el primer trimestre de 2024 y que sea exigible en su totalidad en un plazo de dos años.

A día de hoy solo contamos con los borradores de la propuesta de reglamento y con la guía de preguntas y respuestas que ha publicado la Comisión Europea, lo que nos permite hacernos una idea aproximada del acuerdo alcanzado.

Atención a los riesgos

El reglamento cuenta con un enfoque orientado principalmente a los riesgos que conlleva el uso de la IA. Es decir, se trata de atender a cuál es la actividad que estamos llevando a cabo, y no tanto a qué tecnología concreta utilizamos para conseguirlo.

Partiendo de este enfoque, y de forma muy resumida, el reglamento establece cuatro categorías de riesgos a los que impone obligaciones distintas.

Los sistemas de riesgo inaceptable están directamente prohibidos por contravenir los valores de la Unión Europea, incluyendo el respeto a los derechos fundamentales. Como ejemplo de estos sistemas de alto riesgo podemos citar los sistemas de clasificación social o social scoring que, al más puro estilo Black Mirror, puntúan a los ciudadanos basándose en su comportamiento y reputación.

Su riesgo reside en que necesitan adentrarse en nuestra vida privada para analizar nuestras finanzas, educación, conducta en redes sociales, etc. Este es el alimento con el que deciden hasta qué punto somos merecedores de confianza y con ello, si merecemos o no un crédito, un seguro médico o la posibilidad de acceder a la universidad.  

Alto riesgo

Los sistemas de alto riesgo son aquellos que pueden llegar a afectar de forma negativa los derechos fundamentales o la seguridad de las personas si no se usan adecuadamente. El objetivo no es prohibirlos, sino controlar sus riesgos, para lo que se les exige una evaluación de conformidad antes de permitir su comercialización (requisitos de documentación, trazabilidad, transparencia, supervisión humana o ciberseguridad) así como la implementación de sistemas de gestión de calidad y riesgo.

Aquí encontramos los sistemas de IA dirigidos al control del tráfico o al suministro de servicios esenciales como el agua, el gas o la electricidad. También la evaluación del rendimiento académico, la selección de personal, el acceso a servicios de salud públicos o privados, o la administración de justicia. 

Riesgo mínimo

No obstante, la mayoría de los sistemas que utilizamos en la actualidad son sistemas de riesgo mínimo. El reglamento no les impone obligaciones adicionales, pero sí incentiva que los prestadores de este tipo de servicios adopten estándares de conducta voluntarios dirigidos a aumentar la confianza ciudadana en la IA.

Por último, los sistemas de IA a los que únicamente se exigen obligaciones de transparencia pretenden evitar la manipulación de los ciudadanos. Encajan en esta categoría las herramientas que permiten generar contenidos sintéticos confundibles con la realidad, como los llamados deep-fakes o los chatbots utilizados para la atención al cliente. Se trata, en definitiva, de informar a los ciudadanos de que están interactuando con una IA, y no con otro ser humano.

De forma adicional, el reglamento también ha incorporado regulación específica que no se enfoca en el riesgo que conlleva su uso, sino en la potencia y capacidades de determinadas tecnologías, como los llamados modelos de IA de propósito general (GPAI).

Versatilidad a tener en cuenta

Se trata de modelos que debido a su versatilidad pueden utilizarse para fines diversos y/o integrarse en otros sistemas como sucede, por ejemplo, con GPT-4 o Gemini. Los GPAI deberán cumplir con obligaciones adicionales en materia de transparencia, respecto a los derechos de autor y el control de los riesgos sistémicos.

Ahora bien, estas obligaciones adicionales se impondrán únicamente a los GPAI más potentes, los que tienen una mayor capacidad de computación. El enfoque es parecido al adoptado por el Reglamento de Servicios Digitales (DSA), que impone las obligaciones más gravosas solo a aquellos prestadores de servicios digitales (i.e., marketplaces, buscadores, plataformas) que cuentan con un número muy elevado de usuarios. El objetivo es que esta carga adicional obligue únicamente a los GPAI que debido a su tamaño pueden asumirla.

Sistema seguro y respetuoso

Con estas herramientas el reglamento pretende garantizar que los sistemas de IA sean seguros y respeten la legislación vigente en materia de derechos fundamentales y los valores e la Unión sin afectar la inversión e innovación en IA.

Imposible no estar de acuerdo con el propósito perseguido, pero no es una tarea sencilla ni está exenta de riesgos. Resulta preocupante que no haya ninguna empresa en la UE entre las compañías que están liderando esta revolución tecnológica (Google, OpenAI-Microsoft, Nvidia, IBM, Amazon, Meta, Baidu…).

Coincido con aquellos a los que les hubiese gustado que el anuncio del acuerdo en materia de regulación se hubiese visto acompañado por un acuerdo aún más firme para financiar la infraestructura que Europa necesita para no quedarse atrás.

Cuando le pregunto a ChatGPT, siempre muy educado, me confirma que en materia de innovación y desarrollo tecnológico los líderes indiscutibles son Estados Unidos y China, aunque encuentra un resquicio para poner en valor los fines perseguidos por el reglamento: “En resumen, mientras que la UE puede no liderar en términos de desarrollo y comercialización de IA, está jugando un papel crucial en la definición de cómo debe regularse y utilizarse éticamente esta tecnología. La "carrera" de la IA no se trata solo de velocidad y avances tecnológicos, sino también de sostenibilidad, ética y regulación global” (ChatGPT).

En FIDE ya se han debatido las implicaciones de la IA en el pasado y, como no podía ser de otro modo, en 2024 continuará el debate cuando ya podamos acceder al texto definitivo del Reglamento.

(*) Cristina Mesa es Socia de Garrigues y Consejera Académica de Fide, el think-tank jurídico-económico líder en España.