OpenAI, la empresa creadora de ChatGPT, estudia permitir la generación de contenido erótico con inteligencia artificial

Fuentes de la compañía afirman que no se está "intentando crear porno con IA", si bien han añadido que eso "depende de tu definición de porno"

Un joven consumiendo porno.

Un joven consumiendo porno. / David Castro

Carles Planas Bou

OpenAI, la empresa responsable de ChatGPT, está estudiando permitir que sus usuarios puedan generar pornografía y otros contenidos explícitos a través de sus herramientas de inteligencia artificial (IA).

La compañía, liderada por Sam Altman y apoyada económicamente por Microsoft, presentó el miércoles un extenso documento que fija cómo deben comportarse sus modelos. En él, se abre la puerta a revisar su actual prohibición, que imposibilita la generación de imágenes o vídeos eróticos.

"Estamos estudiando si podemos ofrecer de forma responsable la posibilidad de generar contenido NSFW en contextos apropiados para la edad", afirma el documento en un comentario. El acrónimo NSFW ("no seguro para el trabajo", en inglés) se refiere a erotismo, blasfemias y gore extremo (violencia gráfica).

Como ejemplo, OpenAI indica que ChatGPT "debe seguir siendo útil en contextos científicos y creativos que se consideren seguros para el trabajo", como "hablar de sexo y órganos reproductores en un contexto científico o médico".

"Queremos asegurarnos de que la gente tenga el máximo control en la medida en que no viole la ley o los derechos de otras personas, pero permitir deepfakes (vídeos manipulados) está fuera de la cuestión, y punto", ha explicado Joanne Jang, de OpenAI, en declaraciones a la emisora de radio NPR. Jang ha asegurado que la compañía no está "intentando crear porno con IA", si bien ha añadido que eso "depende de tu definición de porno".

Riesgos de la IA

Más allá de esas promesas de "responsabilidad", la medida inquieta a los expertos. El pasado marzo, un ingeniero de software de Microsoft denunció públicamente que Copilot Designer, el generador de imágenes de la compañía que funciona con la tecnología de OpenAI, crea imágenes violentas y sexuales "dañinas".

La restricción actual se debe a los riesgos de vincular la IA y los contenidos sexualmente sugerentes. En los últimos meses, la proliferación de aplicaciones que permiten generar desnudos falsos de otras personas ha disparado el número de víctimas de ese delito, ya sean celebridades como la cantante Taylor Swift o menores de edad de hasta 14 años. El pasado septiembre, sin ir más lejos, una veintena de madres de Badajoz denunciaron que sus hijas habían sido expuestas por compañeros de clase, que habían manipulado fotos suyas para desnudarlas y colgarlas en las redes sociales para humillarlas.

Hay otras polémicas. Desde hace años, las principales páginas web de pornografía contienen deepfakes de famosas para simular escenas sexuales. Todo ello, claro está, sin el consentimiento de las víctimas, cuya imagen es explotada para satisfacer las fantasías de terceros.

Los riesgos de usar IA para generar contenido sexual van aún más allá. El pasado diciembre, una investigación del Observatorio de Internet de la Universidad de Stanford destapó que populares apps de IA como el generador de imágenes Stable Diffusion se han entrenado con una base de datos plagada de contenidos de abuso sexual a menores. Los expertos han advertido que eso podría ayudar a reproducir más contenido falso de la mal llamada pornografía infantil.