Por qué alucinan los sistemas de inteligencia artificial

Hoy en día, la inteligencia artificial (IA) opera en forma de asistentes virtuales, dispositivos domésticos inteligentes, diagnósticos sanitarios y coches autoconducidos. Sin embargo, surge un problema con el desarrollo de esta tecnología crítica porque provoca lo que se conoce como «alucinaciones de la inteligencia artificial».

¿Por qué alucinan los sistemas de inteligencia artificial?

En pocas palabras, las alucinaciones de la inteligencia artificial se refieren a los casos en que los sistemas de inteligencia artificial generan o infieren información incorrecta que no existía durante su recopilación de datos de entrenamiento. Por otro lado, no resolver las alucinaciones de la inteligencia artificial puede acarrear problemas como la difusión de falsedades y la emisión de juicios sesgados, lo que conlleva problemas tanto económicos como de seguridad. Explicaremos por qué alucinan los sistemas de inteligencia artificial, sus causas y su prevención.

Es probable que los sistemas de inteligencia artificial alucinen cuando un gran modelo lingüístico es capaz de observar características u objetos que nunca se han visto o que no existen en absoluto. Esto hace que genere información de salida incorrecta que no tiene sentido en la vida real, pero que, en algunos casos, se basa en patrones/objetos percibidos por él mismo.

En otras palabras, los sistemas de inteligencia artificial alucinan cuando los modelos hacen afirmaciones falsas o dependen de patrones y prejuicios triviales en los datos de entrenamiento para producir o defender respuestas controvertidas, pero esto ocurre en un nivel de complejidad superior.

Causas de las alucinaciones de la inteligencia artificial

Hay algunas razones clave por las que los sistemas de inteligencia artificial alucinan:

Sesgos en los datos

Los datos que faltan y/o las muestras de datos de entrenamiento que están incompletas o contienen elementos sesgados/prejuiciosos son presentados por la mayoría de los modelos porque la inteligencia artificial no tiene forma de juzgar la imparcialidad o los prejuicios implicados.

Por ejemplo, ha habido casos en los que algoritmos de reconocimiento facial no han sido capaces de reconocer rostros no blancos, lo que se ha atribuido a conjuntos de datos de entrenamiento que se compilaron basándose en tales sesgos.

Sobreajuste

El exceso de información en su base de datos es otra de las razones por las que los sistemas de inteligencia artificial alucinan. Algunos de los problemas relacionados con las redes neuronales identificadas son que, al aprender a partir de patrones en este conjunto de datos limitado, pueden más bien «memorizar» o «sobreajustar» patrones demasiado ruidosos. Esto, a su vez, las hace más propensas a alucinar cuando se exponen a entradas diferentes de las que encontraron durante el entrenamiento.

Acumulación de errores

Los pequeños errores o ruidos en los datos de entrada se magnificarán en su forma procesada jerárquicamente, y en grandes modelos de transformadores con unos cuantos miles de millones de parámetros, por ejemplo, puede llevar a la generación de salidas distorsionadas o incluso fabricadas.

Circuitos de realimentación

El problema de las alucinaciones puede incluso agravarse en los sistemas autosupervisados si no se corrige. Por ejemplo, una inteligencia artificial puede crear una foto basándose en una red neuronal, y una deepfake puede hacer creer a otra inteligencia artificial que la información es real.

Posibles perjuicios de las alucinaciones de la inteligencia artificial

Las alucinaciones de la inteligencia artificial plantean graves problemas. Estos son los siguientes casos que podemos esperar si no se abordan:

Desinformación

La falta de veracidad combinada con la naturaleza falsificadora de la inteligencia artificial de los bots significa que las estadísticas falsas y la desinformación podrían hacerse virales y distorsionar la capacidad de la gente para encontrar datos fiables. Esto es muy preocupante si los sistemas se utilizan en los ámbitos del periodismo, la educación o la elaboración de políticas públicas.

Violación de la privacidad

Los datos privados sensibles sobre individuos que nunca fueron observados podrían invadir profundamente la privacidad y erosionar la confianza, si tales sistemas se aplican a las tareas correspondientes, como la sanidad, la aplicación de la ley, etc.

Daños a grupos marginados

Como ya se ha señalado, en los conjuntos de datos de inteligencia artificial, los sesgos de selección discriminan a grupos socialmente desfavorecidos y convierten la justicia social en un problema aún mayor.

Riesgos para la seguridad

La inteligencia artificial alucina con la información errónea sobre las notas o guías de los coches autoconducidos o los aparatos de diagnóstico médico, lo que puede provocar accidentes, lesiones o decisiones médicas equivocadas, ya que estos sistemas de inteligencia artificial dependen de información imperfecta.

Costes económicos

La falta de innovaciones y de crecimiento por el uso de inteligencia artificial alucinante para múltiples instalaciones y prestaciones de servicios podría conducir a la pérdida de confianza de los clientes, así como a una reducción del valor de las organizaciones e instalaciones asociadas. No siempre es posible asignar una cifra tangible a estos costes, pero los peligros son demasiado grandes.

Prevenir las alucinaciones de la inteligencia artificial

He aquí las medidas proactivas que los investigadores toman para prevenir las alucinaciones de la inteligencia artificial:

Amplia gama de datos imparciales

Reunir conjuntos de datos de entrenamiento que no contengan ideas preconcebidas ni favorezcan a un sector de la sociedad en detrimento de otro ayuda a que la inteligencia artificial se entrene bien. Es necesario limpiar las bases de datos públicas y comprobar los hechos para evitar que se propaguen datos falsos.

Preprocesamiento de datos

Medidas como la eliminación de observaciones atroces, la anonimización de datos, la reducción de características, etc. pueden ayudar a eliminar el ruido y los patrones no deseados de los datos antes de alimentar el sistema.

Evaluación de modelos

Los sistemas de inteligencia artificial deben someterse a comprobaciones constantes utilizando nuevos conjuntos de datos de evaluación cuidadosamente diseñados para identificar nuevas alucinaciones.

Supervisión del modelo

Para dar cuenta de una respuesta no deseada de la inteligencia artificial, mecanismos como las tarjetas de modelo o las declaraciones de datos pueden permitir registrar el comportamiento de la inteligencia artificial a lo largo del tiempo.

Inteligencia artificial explicable

Utilizando metodologías como los mapas de atención y los valores SHAP, se puede entender por qué los modelos dieron esa respuesta, así como identificar análisis sencillos basados en características compatibles con los modelos en comparación con los modelos aleatorios.

Despliegue conservador

Los sistemas de inteligencia artificial deben circunscribirse a ámbitos específicos y tener un uso limitado y controlado, con humanos supervisando el uso hasta que la inteligencia artificial demuestre ser segura, fiable y el doble de justa en el trato con los humanos.

Para contribuir a que la inteligencia artificial siga aportando beneficios a la sociedad y evitar el peligro de daños relacionados con la alucinación, las organizaciones deben afrontar de antemano los problemas de calidad de los datos y los modelos. Hay que ser prudentes y responsables para evitar las graves ramificaciones que pueden surgir de las alucinaciones de la inteligencia artificial y las falacias relacionadas.

En resumen, los riesgos de las alucinaciones de la inteligencia artificial pueden controlarse si se aplican las estrategias correspondientes para paliarlos. No obstante, evitar posibles resultados negativos exige una observación persistente por parte de los desarrolladores de tecnología y de quienes influyen en los cambios políticos. Sólo después de realizar estos intentos conjuntos podremos desarrollar un sistema de inteligencia artificial que repercuta positivamente en los seres humanos y, al mismo tiempo, garantice su protección.

Por último, hemos preparado para usted las preguntas más frecuentes y sus respuestas

¿Qué son las alucinaciones de la inteligencia artificial?

Las alucinaciones de inteligencia artificial se refieren a los casos en los que los sistemas de inteligencia artificial generan información falsa o sin sentido, a menudo debido a una interpretación errónea de datos o patrones.

¿Por qué alucinan los sistemas de inteligencia artificial?

Los sistemas de inteligencia artificial pueden alucinar debido a varios factores, como el sobreajuste, los sesgos en los datos de entrenamiento y la elevada complejidad de los modelos.

¿Son frecuentes las alucinaciones en inteligencia artificial?

Las alucinaciones pueden ser bastante comunes en inteligencia artificial, especialmente en grandes modelos lingüísticos y herramientas generativas que carecen de restricciones sobre los posibles resultados.

¿Se pueden prevenir las alucinaciones en inteligencia artificial?

La prevención de las alucinaciones en inteligencia artificial pasa por definir límites claros para los modelos de inteligencia artificial utilizando herramientas de filtrado y estableciendo umbrales probabilísticos.

¿Cuáles son las consecuencias de las alucinaciones de la inteligencia artificial?

Las consecuencias pueden ir desde difundir información errónea hasta causar daños en el mundo real, como diagnósticos médicos incorrectos.

¿Cómo afectan las alucinaciones a la confianza en los sistemas de inteligencia artificial?

Las alucinaciones pueden minar la confianza en la inteligencia artificial, ya que hacen difícil confiar en los resultados del sistema sin verificación.

¿Hay ejemplos famosos de alucinaciones de inteligencia artificial?

Sí, ejemplos notables son los chatbots que generan trabajos académicos falsos o proporcionan información incorrecta en interacciones de atención al cliente.

¿Se producen alucinaciones de inteligencia artificial tanto en sistemas de lenguaje como de imágenes?

Sí, las alucinaciones de inteligencia artificial pueden producirse tanto en modelos lingüísticos como en sistemas de visión por ordenador.

¿Qué papel desempeñan los datos de entrenamiento en las alucinaciones de la inteligencia artificial?

Los datos de entrenamiento son cruciales: los datos sesgados o no representativos pueden dar lugar a alucinaciones que reflejen estos sesgos.

¿Se están investigando las alucinaciones de la inteligencia artificial?

Sí, se están llevando a cabo importantes investigaciones para comprender y mitigar las alucinaciones de la inteligencia artificial con el fin de mejorar la fiabilidad de los sistemas de inteligencia artificial.