“Alucinación” de la inteligencia artificial: qué es y por qué es una de sus fallas más peligrosas

La “alucinación” en el contexto de la inteligencia artificial (IA) se refiere a la generación de información incorrecta, sesgada o completamente errónea.

La “alucinación” en el contexto de la inteligencia artificial (IA) se refiere a la generación de información incorrecta, sesgada o completamente errónea por parte de los sistemas de IA, a pesar de que el texto pueda parecer coherente y bien redactado.

Como explica la BBC, es un fenómeno que ocurre cuando los modelos de lenguaje basados en IA, como ChatGPT de OpenAI o Bard de Google, generan respuestas que contienen datos inventados o falsos.

Estos sistemas de IA generativa y de aprendizaje de refuerzo aprenden a partir de enormes cantidades de texto recopilado de Internet y utilizan patrones en los datos para predecir la siguiente palabra o completar oraciones. Sin embargo, debido a la presencia de información falsa en la web, los modelos de IA también pueden aprender y repetir falsedades o incluso inventar información.

Un ejemplo de alucinación

El mes pasado, días antes de la coronación del rey Carlos III el 6 de mayo, una petición hecha a ChatGPT arrojó un resultado llamativo de una alucinación.

El chatbot de inteligencia artificial de OpenAI señaló en un párrafo una fecha errónea: “La ceremonia de coronación tuvo lugar en la Abadía de Westminster, en Londres, el 19 de mayo de 2023. La abadía ha sido el escenario de las coronaciones de los monarcas británicos desde el siglo XI, y es considerada uno de los lugares más sagrados y emblemáticos del país”.

Es importante tener precaución al utilizar estos chatbots y reconocer sus limitaciones. Tanto OpenAI como Google han advertido a los usuarios sobre la posibilidad de “alucinaciones” en las respuestas generadas por sus sistemas.

OpenAI ha reconocido que GPT-4 tiene la tendencia a producir contenido sin sentido o falso en relación con ciertas fuentes, lo que puede ser especialmente perjudicial a medida que los modelos se vuelven más convincentes y creíbles, lo que lleva a una confianza excesiva por parte de los usuarios.

Lo Último