Inteligencia Artificial

La IA se vuelve cada vez más inteligente, pero al mismo tiempo alucina como nunca antes

Las "alucinaciones" de la IA no son un error de los sistemas, sino parte de su estrategia creativa: los expertos buscan limitar esa capacidad imaginativa para reducir los datos inexactos

El modelo más avanzado de Inteligencia Artificial (IA) "alucina" en forma creciente y proporciona información incorrecta e inexacta, a pesar de sus increíbles avances.

El modelo más avanzado de Inteligencia Artificial (IA) "alucina" en forma creciente y proporciona información incorrecta e inexacta, a pesar de sus increíbles avances. / Crédito: TheDigitalArtist en Pixabay.

Pablo Javier Piacente / T21

El modelo de razonamiento más avanzado de OpenAI es más inteligente que nunca, pero también alucina más que los modelos anteriores, según una evaluación realizada por la compañía. Esto plantea una preocupación sobre la precisión y confiabilidad de los modelos de lenguaje grande (LLM).

La carrera por dotar a la Inteligencia Artificial (IA) de capacidades más potentes y significativas ha ocasionado un efecto imprevisto: cuanto más “piensan” los modelos de razonamiento, más a menudo alucinan. Esto significa que generan datos falsos con total coherencia y confianza, de la misma forma que trabajan con la información veraz.

Un estudio interno de la firma OpenAI, una de las compañías líderes del sector a nivel global, midió la tasa de "alucinaciones" usando PersonQA, un banco de pruebas que evalúa la precisión al responder preguntas sobre personajes públicos. Uno de los modelos más avanzados (o3) alucinó en un 33% de las consultas, cifra que duplica a la de su predecesor o1, que lo hizo en un 16%. El modelo más pequeño y rápido, o4-mini, alcanzó incluso un 48% de respuestas erróneas.

Estas “alucinaciones” consisten en hechos inventados, como citas, fechas o eventos, que son presentados con la misma formalidad que la información fidedigna. “Cuando un sistema ofrece datos fabricados con la misma fluidez que los auténticos, se corre el riesgo de confundir a los usuarios”, indicó a Live Science Eleanor Watson, especialista en IA en Singularity University.

Es una característica y no un error

¿Por qué se desarrollan estas "alucinaciones"? Los modelos de lenguaje grande (LLM) no “comprenden” la verdad: basan sus respuestas en patrones estadísticos aprendidos de enormes volúmenes de texto. Si los datos de entrenamiento son incompletos, contradictorios o se escasea información puntual, el modelo genera la continuación que considera más probable, aunque sea errónea.

Los científicos explican que la alucinación es una característica de la IA y no un error. En otras palabras, esta condición le permite crear textos, imágenes, música y casi cualquier otro contenido sin repetir únicamente aquello que ya existe en Internet. El problema está en no poder limitar esa habilidad creativa, para evitar así la entrega de datos falsos.

Con este objetivo, OpenAI ha enriquecido sus últimas creaciones con acceso autónomo a herramientas externas: navegación web, análisis de archivos con Python, interpretación de imágenes, generación gráfica, búsquedas en memoria y automatizaciones. Estos recursos amplían el campo de acción de la IA, pero no eliminan su propensión a fallar con datos básicos.

Creatividad y rigurosidad: la alianza buscada

Ante este dilema de “mayor ingenio, menor fiabilidad”, cobra relevancia la capacidad de entender y rastrear las causas internas de cada respuesta. Darío Amodei, director ejecutivo de la empresa Anthropic, sostiene en un reciente ensayo que "solo con visibilidad sobre los mecanismos de decisión podremos acotar los posibles errores y cumplir requisitos legales, por ejemplo en créditos hipotecarios u otras instancias similares, donde la ley exige explicaciones claras sobre cada decisión automatizada".

Además de OpenAI, Google, DeepMind y otras compañías exploran soluciones de “razonamiento contrastivo” y “anclaje en bases de datos fiables” para mitigar estos deslizamientos. Asimismo, surgen startups dedicadas a monitorizar y corregir en tiempo real las salidas de los modelos, creando un nuevo nicho de mercado en torno a la verificación automática de IA.

Entre las medidas en estudio figuran la integración continua de fuentes verificadas, entrenamientos con datos mejor filtrados y arquitecturas híbridas que combinen redes neuronales con reglas simbólicas. Sin embargo, muchos expertos creen que las alucinaciones son inherentes a la forma en que trabaja la IA y que solo desaparecerán si se reinventa por completo su base algorítmica.

Tracking Pixel Contents