Los retos legales que esperan a ChatGPT

Jorge Morell Ramos

Jorge Morell Ramos

El chatbot ChatGPT es la sensación a nivel de inteligencia artificial hoy en día, pero el pasado viernes recibió una mala noticia al ser prohibido temporalmente en Italia con el argumento de que podría vulnerar las reglas de privacidad de Europa, concretamente el Reglamento General de Protección de Datos (RGPD).

Los motivos de la prohibición son que ChatGPT no indica claramente la base legal usada para el tratamiento tan masivo de datos realizado (por ejemplo, el consentimiento), no tiene en cuenta el tratamiento de datos por parte de menores de edad, no es claro sobre los usos que hace de esos datos y además puede ofrecer mucha desinformación sin fórmulas claras de corrección.

La prohibición italiana es solo el comienzo de los problemas legales de ChatGPT en Europa y más allá, ya que se está valorando la apertura de investigaciones en buena parte de la UE.

OpenAI, la organización que creó ChatGPT, tiene un primer problema: no ha establecido una sede local en uno de los 27 países de la Unión Europea, lo que significa que la autoridad de protección de datos de cualquier país miembro puede iniciar nuevas investigaciones y hacer cumplir las prohibiciones.

Por otro lado, la Comisión de Protección de Datos de Irlanda dijo que “se coordinará con todas las [autoridades de protección de datos] de la UE en relación con este asunto (la prohibición temporal en Italia)”, según el portavoz Graham Doyle. La autoridad belga de protección de datos también dijo que las posibles infracciones de ChatGPT "deberían discutirse a nivel europeo".

"Hasta la fecha, no hemos iniciado una investigación sobre ChatGPT, pero no descartamos nada para el futuro", dijo Tobias Judin, jefe internacional del regulador de protección de datos de Noruega, Datatilsynet.

Por su parte el ICO, la agencia británica de protección de datos, dijo esta semana que las empresas que usen sistemas como ChatGPT deberían asegurar que la información de sus clientes es tratada correctamente.

Si bien OpenAI ha negado haber violado las leyes de privacidad de la UE, el director ejecutivo de la empresa, Sam Altman, dijo en Twitter que su empresa estaba remitiendo la prohibición al "gobierno italiano", aparentemente confundiendo al regulador independiente del país con el gobierno.

Pero el problema no está solo en Europa, esta semana la agencia de protección de datos de Canadá anunció que lanza una investigación sobre ChatGPT y su recopilación y uso de datos.

Sea como sea, no es solo la privacidad lo que hace que los sistemas de inteligencia artificial (IA) como ChatGPT generen preocupaciones.

A finales de marzo, un joven belga se suicidó tras conversar 6 semanas con un chatbot impulsado por una IA llamado Eliza. Hace unos días, el magnate de la tecnología Elon Musk, junto con miles de expertos en inteligencia artificial pidieron una pausa en el desarrollo de ChatGPT por "riesgos profundos para la humanidad".

Grupos de defensa como el Centro de IA y Política Digital de EE. UU. y el grupo europeo de consumidores BEUC han respaldado las peticiones de prohibiciones y moratorias en la tecnología de ChatGPT. Los legisladores europeos también están negociando limitaciones legales sobre la tecnología como parte de un proyecto de ley de inteligencia artificial de la UE, que seguramente sea aprobado este año. Esta misma semana se supo que el Parlamento Europeo estudia someter a sistemas como ChatGPT a las mismas obligaciones que los sistemas de IA de alto riesgo.

Pero mientras la legislación sobre inteligencia artificial llega, los reguladores de protección de datos se han animado a intervenir.

Los reguladores de privacidad hacen cumplir el RGPD, incluidas sus reglas sobre la recopilación de datos y la protección de los usuarios contra la toma de decisiones automatizadas. Las empresas como OpenAI deben tener una base legal para recopilar y usar datos personales, ser transparentes sobre cómo usan los datos de las personas, mantener los datos personales precisos y otorgarles a las personas el derecho a la corrección.

La realidad es que OpenAI nunca ha revelado qué conjunto de datos usó para entrenar el modelo de IA que sustenta el chatbot. Incluso los investigadores de Microsoft, que es el principal inversor de OpenAI, dijeron en un artículo reciente que "no tenían acceso a los detalles completos de los vastos datos de capacitación [de ChatGPT]".

El hecho de que ChatGPT sufriera una vulneración de datos hace unas semanas y eso expusiera las conversaciones de los usuarios y su información de pago, solo se suma a sus problemas.

La decisión italiana de detener ChatGPT en seco es una llamada de atención de los reguladores,

seguramente. Siendo de nuevo Europa quien parece que va a encabezar el diálogo sobre la regulación de una tecnología tan puntera como ChatGPT.