Cómo Europa quiere regular la inteligencia artificial

Jorge Morell

Jorge Morell

Jorge Morell Ramos

Jorge Morell Ramos

Recientemente la Comisión Europea presentó su primera propuesta de regulación sobre el uso de inteligencia artificial. El objetivo de esta norma es garantizar que los europeos puedan confiar en lo que la inteligencia artificial o IA puede ofrecer y cómo se gestionarán sus derechos fundamentales cuando un software implemente este tipo de avance.

¿Qué se entiende por inteligencia artificial? Consiste en la inteligencia expresada por máquinas y programas informáticos cuando la misma intenta imitar las funciones cognitivas de un humano: hablar, leer, razonar o resolver un problema, entre otras. Es decir, un programa informático que intenta imitar una característica de la inteligencia humana.

No es un concepto nuevo, ya que la acuñó John McCarthy en 1956. Pero sí es verdad que en la última década se han dado algunos elementos que han favorecido una gran aceleración:

  1. La gigantesca generación de datos de los que se alimenta ese IA para pensar de forma más humana.
  2. El abaratamiento de la tecnología necesaria para desarrollar este tipo de proyectos.
  3. La creación de algunas técnicas más avanzadas que han permitido dar un salto de calidad en los procesos.

Eso nos lleva a la situación actual, donde un programa informático puede ser mejor que un humano jugando a ajedrez, Go o Starcraft, puede reconocer un rostro entre miles de personas, identificar una voz, traducir una conversación, encontrar una línea de texto relevante entre decenas de miles de páginas, detectar un correo electrónico publicitario o permitir que un coche autónomo sepa diferenciar entre las señales de tráfico. Todo eso y mucho más es inteligencia artificial.

El problema es que no siempre sabemos los motivos por los que esa IA ha tomado una decisión: corregir una frase que no tenía faltas, no entender el sentido de una expresión, mostrarnos el contenido solicitado de forma incorrecta, prohibirnos indebidamente el acceso a un lugar, cerrar nuestra cuenta por un meme mal entendido o denegarnos una compra online por pensar que nuestra tarjeta es fraudulenta, entre otros muchos problemas.

Eso motiva la necesidad de regular cómo se usa la inteligencia artificial por parte de las empresas y entidades públicas, con el objetivo de salvaguardar derechos y garantizar que el ciudadano pueda confiar en esa cámara del aeropuerto que no solo graba lo que hago, sino que también reconoce mi rostro y quizá un día me confunda erróneamente con quien no soy.

El planteamiento que hace la UE sobre una IA de fiar consiste básicamente en analizar el riesgo que esa inteligencia artificial puede comportar a la hora de vulnerar derechos fundamentales, desde la libertad de expresión a la de movimiento, por ejemplo. De esa forma establece 4 categorías de riesgos: el inadmisible, el alto, el limitado y el mínimo.

En el riesgo mínimo entrarían por ejemplo la mayoría de aplicaciones actuales de la IA, por ejemplo la usada por un videojuego para mover a los enemigos que atacan mi nave o la utilizada para filtrar el spam en el correo. En ese caso no debería haber problema en su uso e implementación.

El riesgo limitado se refiere a la IA que interactúa con personas, por ejemplo detectar mediante la cámara si estás triste o feliz, sugerirte una canción según tus últimos mensajes o dar una respuesta adecuada a tu tono de voz. En esos casos se exige del prestador un nivel de transparencia alto para que el usuario entienda que la interacción es con una máquina y no un humano.

El riesgo alto es cuando la IA puede afectar negativamente la salud, seguridad o derechos del ciudadano, desde un software del banco que te dice si tienes acceso o no a un préstamo, a un programa que analiza tus expresiones fáciles durante una entrevista de trabajo a la cirugía asistida mediante robots, entre otros muchos supuestos. En esos casos el prestador debe cumplir con muchas más obligaciones, tanto a nivel de registro, trazabilidad, seguridad, control y documentación. 

Por último está el riesgo inadmisible, consistente en sistemas que son una clara amenaza para la seguridad y derechos de los ciudadanos, en cuyo caso se prohibirán. Hablamos por ejemplo de programas que puedan manipular un comportamiento, desde un juguete inteligente que condicione la voluntad de un menor a acciones peligrosas, a los basados en puntuación social tipo China o los “robot killers” consistentes en drones autónomos preparados para matar sin intervención humana.

Todo lo anterior es todavía una propuesta que requiere ahora del feedback de los estados miembros y ser luego aprobada por el Parlamento Europeo. Pero ya no queda tanto para que empresas y administraciones públicas que usen inteligencia artificial en su día a día deban tener en cuenta el nivel de riesgo que ese sistema implica para el ciudadano.