Investigadores de la Universidad de Stanford han desarrollado un nuevo algoritmo capaz de reconocer las emociones que produce una obra de arte. Su aplicación permite que los ordenadores produzcan una reacción emocional frente a una pieza artística, y que además puedan explicarla a través del uso del lenguaje.

Según los expertos, la nueva tecnología podría ser un paso importante en el desarrollo de algoritmos con inteligencia emocional, que podrían hacer que la Inteligencia Artificial sea más humana. En un comunicado, los científicos sostienen que la innovación abrirá el camino hacia tecnologías informáticas más conectadas con el universo humano y sus necesidades internas.

Aunque los sistemas de Inteligencia Artificial ya son capaces de reconocer objetos, personas, animales o realizar múltiples tareas, aún fallan en aquellas cuestiones que nos diferencian como seres humanos: nuestro costado emocional e intuitivo. Ahora, las tecnologías que están dominando los nuevos desarrollos en transporte autónomo, domótica o asistencia sanitaria también podrán «entender» nuestras emociones y actuar en consecuencia.

¿Cómo lograron los investigadores este avance? El algoritmo fue creado a partir de una enorme base de datos compilada en el proyecto ArtEmis. La información que utiliza el sistema incluye 81 mil obras de arte y 440 mil respuestas escritas de un total de 6.500 personas, que explicaron las emociones que les producen cada una de las pinturas. Con esos datos, los investigadores pudieron «entrenar» a su sistema para que fuera capaz de reaccionar emocionalmente frente a las piezas artísticas.

El video muestra un vertiginoso viaje por las más de 80 mil obras de arte utilizadas en el proyecto ArtEmis.

Más allá de lo literal

En concreto, emplearon una tipología específica de Inteligencia Artificial denominada «oradores neuronales», que genera respuestas con palabras escritas. Al integrarse a los ordenadores, esta tecnología los convierte en amantes del arte: las máquinas pueden producir respuestas emocionales y explicarlas con palabras ante cada obra o pintura. Según indican en su estudio, publicado en arXiv, los investigadores eligieron el arte visual para el nuevo algoritmo porque es una actividad en la cual el artista apela directamente al mundo emocional del receptor.

Además, la extensa base de datos permite trabajar de forma independiente al tema o estilo, ya que incluye desde la naturaleza muerta hasta los retratos humanos y la abstracción. El nuevo enfoque deja atrás las clásicas descripciones de imágenes en Inteligencia Artificial, que se orientaban a enumeras los elementos presentes. En este caso, el objetivo es generar explicaciones sobre las emociones que produce la obra.

Según Leonidas Guibas, uno de los autores del estudio, “el trabajo clásico de captura de visión por computadora ha sido sobre contenido literal: hay tres perros en la imagen, o alguien está tomando café en una taza. En cambio, ahora necesitábamos descripciones que definieran el contenido emocional», indicó.

Lecturas emocionales

A partir del material indicado, el algoritmo clasifica el trabajo del artista en alguna de las ocho categorías emocionales elegidas, que oscilan entre el asombro, la diversión, el miedo y la tristeza. Una vez que ha clasificado la imagen, el sistema explica en un texto escrito el sentido de su lectura emocional, justificando por qué ha relacionado a la obra con una emoción determinada.

En otras palabras, con este algoritmo el ordenador adquiere la capacidad de entender y explicar cómo se siente un ser humano al apreciar una obra de arte. Incluso, los científicos destacaron que los textos producidos por el sistema reflejan con precisión el contenido abstracto de las imágenes, en un nivel de profundidad que supera ampliamente las capacidades de los algoritmos de visión por computadora existentes en la actualidad, que trabajan a partir de conjuntos de datos fotográficos documentales.

Referencia

ArtEmis: Affective Language for Visual Art. Panos Achlioptas, Maks Ovsjanikov, Kilichbek Haydarov, Mohamed Elhoseiny and Leonidas Guibas. arXiv (2021).

Video: Panos Achlioptas.

Foto: Jean Carlo Emer en Unsplash.