Las primeras demandas contra las IAs generativas

Jorge Morell Ramos

Jorge Morell Ramos

Recientemente parece que en el mundo tecnológico todo gira entorno a ChatGPT y sus mayores o menores problemáticas legales.

ChatGPT, al igual que otras muchas herramientas disponibles ya en el mercado, es una inteligencia artificial (es decir, un programa informático) con gran capacidad de generar conversaciones muy convincentes sobre múltiples materias, desde programación a videojuegos, pasando por cocina o filosofía.

Una inteligencia artificial generativa (en adelante, IAG) es una rama de la inteligencia artificial enfocada en la generación de contenido original (ya sean textos, imágenes, audios u otro material) a partir de datos existentes y en respuesta a indicaciones del usuario.

O lo que es lo mismo, cuando a ChatGPT le pido que me escriba un artículo sobre el último viaje que hice al norte de Asia, él me proporcionará un texto convincente sobre ello. Para realizarlo se habrá valido de datos ya existentes en su “memoria” (por ejemplo, blogs de viaje que durante años hayan hablado de ello) y las indicaciones que yo le haya podido dar (fue un viaje que duró dos semanas, en un grupo de 5 personas y en plan mochilero).

El resultado, totalmente falso, es un contenido en principio original generado por un programa informático a partir de mis indicaciones y los precedentes almacenados en su set de datos.

Las IAG aprenden los patrones y la estructura de los datos de entrada, creando contenido nuevo que es similar a los datos de entrenamiento pero con cierto grado de novedad. Por tanto, no se dedican solo a clasificar o predecir datos, que es por ejemplo lo que haría nuestro filtro de spam en el correo electrónico (también una inteligencia artificial).

Las IAG se están aplicando en el mundo del arte, la música y la escritura, así como en campos como la atención médica, las finanzas y los juegos.

ChatGPT es una IAG, para conversación. Midjourney o Stable Diffusion serían otros ejemplos, pero para crear imágenes.

El problema es que las IAG en ocasiones están generando resultados algo cuestionables, ya sea por inventarse datos, atribuir delitos, usar información antigua y sesgada o directamente por generar una nueva obra que no es tan novedosa como podíamos pensar.

Y esas problemáticas están dando lugar a las primeras demandas contra las IAG.

Veamos tres ejemplos:

1) La primera demanda contra OpenAI, el creador de ChatGPT, tendría su origen en Australia, donde Brian Hood, el alcalde de la ciudad de Hepburn Shire. Cuando se busca el nombre de esa persona en ChatGPT en su versión 3.5, el mismo afirma que Hood fue condenado a 4 años de cárcel por participar en un escándalo de sobornos a inicios del 2000. Pero eso es falso. La realidad es que Brian Hood fue quien descubrió la trama de corrupción y su testimonio fue clave para la detención y condena de múltiples implicados. Obviamente Hood considera que ese comentario por parte de ChatGPT daña considerablemente su reputación y reclama a OpenAI 130 mil dólares en daños y perjuicios.

2) La segunda demanda contra OpenAI, recordemos que es el creador de ChatGPT, tiene su origen en EEUU. En este caso el demandante es Mark Walters, quien presenta un programa de radio llamado "Armed American Radio".

La cuestión es la siguiente:

- En el caso Fundación de la Segunda Enmienda contra Robert Ferguson (que involucra a propietarios de armas y vendedores que buscan bloquear una prohibición recientemente promulgada sobre la fabricación y venta de armas de asalto en Washington), el editor en jefe de "AmmoLand News", Fred Riehl, usó ChatGPT para investigar el asunto.

- Riehl le pidió a ChatGPT que resumiera el caso, y el chatbot supuestamente respondió afirmando falsamente que Mark Walters fue tesorero y director financiero de la Fundación de la Segunda Enmienda. El sumario también indicó que Walters estaba acusado de malversación de fondos para gastos personales sin autorización ni reembolso.

- Luego Riehl le pidió a ChatGPT una copia de esa denuncia contra Walters, y el chatbot produjo una denuncia falsa que acusaba (falsamente) a Mark Walters de fraude y malversación de fondos.

- La realidad es que Mark Walters no es parte del litigio de la Fundación de la Segunda Enmienda, nunca trabajó ni estuvo involucrado con la organización, y nunca fue acusado de malversación de fondos. De hecho, el litigio de la Fundación de la Segunda Enmienda "no tiene nada que ver con reclamos de contabilidad financiera contra nadie", dice el equipo legal de Walters.

3) La tercera demanda derivada de una IAG tiene su origen en un problema de propiedad intelectual. Getty Images, una de las agencias de imágenes más grandes del mundo, ha demandado a Stability AI, la empresa detrás de Stable Diffusion, una famosa IAG para generar imágenes. Getty Images considera que casi 12 millones de sus imágenes protegidas han sido utilizadas, sin permiso, por Stability AI para entrenar a su programa (esos datos precedentes que decíamos que la IAG usa para “inspirarse”). Getty Images considera que Stability AI no buscó ningún tipo de acuerdo para licenciar sus imágenes, de forma que muchos de los resultados generados por la IAG están basados en imágenes propiedad de Getty Images.

Es un caso que según cómo se desarrolle puede tener gran impacto legal en el mundo de las IAG, ya que obligaría sin duda a poner un extra de diligencia por parte de los desarrolladores sobre los datos utilizados para entrenar a las inteligencias artificiales.

Sea como sea, son solo los primeros ejemplos de algo muy grande y complejo que no ha hecho más que comenzar.