Pourquoi les systèmes d’intelligence artificielle ont-ils des hallucinations

Aujourd’hui, l’intelligence artificielle (IA) prend la forme d’assistants virtuels, d’appareils domestiques intelligents, de diagnostics médicaux et de voitures autonomes. Néanmoins, le développement de cette technologie essentielle pose un problème, car elle provoque ce que l’on appelle des « hallucinations de l’intelligence artificielle ».

Pourquoi les systèmes d’intelligence artificielle ont-ils des hallucinations ?

En termes simples, l’hallucination de l’intelligence artificielle fait référence aux cas où les systèmes d’intelligence artificielle génèrent ou déduisent des informations incorrectes qui n’existaient pas lors de la collecte des données d’entraînement. Par ailleurs, l’incapacité à résoudre les hallucinations de l’intelligence artificielle peut entraîner des problèmes tels que la diffusion de fausses informations et la formulation de jugements biaisés, ce qui pose des problèmes à la fois économiques et de sécurité. Nous allons expliquer pourquoi les systèmes d’intelligence artificielle ont des hallucinations, quelles en sont les causes et comment les prévenir.

L’hallucination des systèmes d’intelligence artificielle est susceptible de se produire lorsqu’un grand modèle de langage est capable d’observer des caractéristiques ou des objets qui n’ont jamais été vus ou qui n’existent pas du tout. Il génère alors des informations de sortie incorrectes qui n’ont pas de sens dans la vie réelle, mais qui, dans certains cas, sont basées sur des modèles/objets qu’il a lui-même perçus.

En d’autres termes, les systèmes d’intelligence artificielle hallucinent lorsque les modèles font de fausses déclarations ou dépendent de modèles et de préjugés triviaux dans les données d’apprentissage pour produire ou défendre des réponses controversées, mais cela se produit à un niveau de complexité plus élevé.

Causes des hallucinations de l’intelligence artificielle

Les hallucinations des systèmes d’intelligence artificielle s’expliquent par quelques raisons essentielles :

Biais dans les données

La plupart des modèles présentent des données manquantes et/ou des échantillons de données d’entraînement incomplets ou contenant des éléments biaisés ou préjudiciables, car l’intelligence artificielle n’a aucun moyen de juger de l’équité ou des préjugés en question.

Par exemple, il est arrivé que des algorithmes de reconnaissance faciale ne soient pas en mesure de reconnaître des visages non blancs, ce qui a été attribué à des ensembles de données d’entraînement compilés sur la base de tels biais.

Ajustement excessif

L’excès d’informations dans la base de données est une autre raison pour laquelle les systèmes d’intelligence artificielle ont des hallucinations. Certains des problèmes concernant les réseaux neuronaux identifiés sont qu’en apprenant à partir de modèles dans cet ensemble de données limité, ils peuvent plutôt « mémoriser » ou « suradapter » des modèles trop bruyants. Cela les rend plus susceptibles d’halluciner lorsqu’ils sont exposés à des données différentes de celles qu’ils ont rencontrées au cours de leur formation.

Accumulation d’erreurs

Les petites erreurs ou le bruit dans les données d’entrée seront amplifiés dans leur forme de traitement hiérarchique, et dans les grands modèles de transformateur avec quelques milliards de paramètres, par exemple, cela peut conduire à la génération de sorties déformées ou même fabriquées.

Boucles de rétroaction

Le problème des hallucinations peut même s’aggraver dans les systèmes autosupervisés s’il n’est pas corrigé. Par exemple, une intelligence artificielle peut créer une photo sur la base d’un réseau neuronal, et un deepfake peut faire croire à une autre intelligence artificielle que l’information est réelle.

Préjudices possibles liés aux hallucinations de l’intelligence artificielle

Les hallucinations de l’intelligence artificielle posent de sérieux problèmes. Voici les cas auxquels nous pouvons nous attendre si rien n’est fait :

Désinformation

Le manque de véracité combiné à la nature falsifiable de l’intelligence artificielle des robots signifie que de fausses statistiques et de fausses informations pourraient devenir virales et fausser la capacité des gens à trouver des données fiables. Cette situation est particulièrement préoccupante si les systèmes sont utilisés dans les domaines du journalisme, de l’éducation ou de l’élaboration des politiques publiques.

Violations de la vie privée

Des données privées sensibles concernant des personnes qui n’ont jamais été observées pourraient profondément porter atteinte à la vie privée et éroder la confiance, si ces systèmes sont appliqués aux tâches correspondantes, telles que les soins de santé, l’application de la loi, etc.

Préjudices causés aux groupes marginalisés

Comme indiqué précédemment, dans les ensembles de données d’intelligence artificielle, les biais de sélection sont susceptibles d’entraîner une discrimination à l’encontre des groupes socialement défavorisés et de faire de la justice sociale un problème encore plus important.

Risques pour la sécurité

Les hallucinations de l’intelligence artificielle ont des informations erronées concernant les notes ou les guides sur les voitures auto-conduites ou les appareils de diagnostic médical, ce qui peut entraîner des accidents, des blessures ou des décisions médicales erronées car ces systèmes d’intelligence artificielle dépendent d’informations imparfaites.

Coûts économiques

Le manque d’innovations et de croissance résultant de l’utilisation d’une intelligence artificielle hallucinante pour de multiples installations et prestations de services pourrait entraîner une perte de confiance des clients ainsi qu’une réduction de la valeur des organisations et installations associées. Il n’est pas toujours possible d’attribuer un chiffre tangible à ces coûts, mais les dangers sont trop importants.

Prévenir les hallucinations de l’intelligence artificielle

Voici les mesures proactives prises par les chercheurs pour prévenir les hallucinations de l’intelligence artificielle :

Large éventail de données impartiales

La collecte d’ensembles de données d’entraînement qui ne contiennent pas d’idées préconçues ou qui ne favorisent pas une partie de la société par rapport à une autre aide l’intelligence artificielle à bien s’entraîner. Les bases de données publiques doivent être nettoyées et vérifiées afin d’éviter la diffusion de fausses données.

Prétraitement des données

Des mesures telles que la suppression des observations flagrantes, l’anonymisation des données, la réduction des caractéristiques, etc. peuvent contribuer à éliminer le bruit et les schémas indésirables des données avant leur introduction dans le système.

Évaluation du modèle

Les systèmes d’intelligence artificielle doivent être soumis à une vérification constante à l’aide de nouveaux ensembles de données d’évaluation soigneusement conçus pour identifier de nouvelles hallucinations.

Surveillance du modèle

Pour rendre compte d’une réponse indésirable de l’intelligence artificielle, des mécanismes tels que les cartes de modèle ou les déclarations de données peuvent permettre d’enregistrer le comportement de l’intelligence artificielle au fil du temps.

Intelligence artificielle explicable

En utilisant des méthodologies telles que les cartes d’attention et les valeurs SHAP, il est possible de comprendre pourquoi les modèles ont produit cette réponse et d’identifier des analyses simples basées sur les caractéristiques compatibles avec les modèles par rapport aux modèles aléatoires.

Déploiement prudent

Les systèmes d’intelligence artificielle devraient être limités à des domaines spécifiques et n’avoir qu’une utilisation limitée et contrôlée, sous la supervision d’humains, jusqu’à ce que l’intelligence artificielle s’avère sûre, fiable et deux fois plus équitable dans son traitement que les humains.

Pour aider l’intelligence artificielle à continuer à générer des bénéfices sociétaux et prévenir le danger de dommages liés à l’hallucination, les organisations doivent faire face aux problèmes de qualité des données et des modèles à l’avance. Faire preuve de prudence et de responsabilité en évitant les conséquences graves qui peuvent découler des hallucinations de l’intelligence artificielle et des sophismes qui y sont liés.

En résumé, les risques liés aux hallucinations de l’intelligence artificielle peuvent être contrôlés si des stratégies correspondantes sont mises en œuvre pour les atténuer. Néanmoins, pour éviter les conséquences négatives possibles, les développeurs de technologies et ceux qui influencent les changements politiques doivent faire preuve d’une observation constante. Ce n’est qu’après de telles tentatives conjointes que nous pourrons développer un système d’intelligence artificielle qui aura un impact positif sur les humains tout en garantissant leur protection.

Enfin, nous avons préparé pour vous les questions les plus fréquemment posées et leurs réponses

Que sont les hallucinations de l’intelligence artificielle ?

Les hallucinations de l’intelligence artificielle sont des cas où les systèmes d’intelligence artificielle génèrent des informations fausses ou absurdes, souvent en raison d’une mauvaise interprétation des données ou des modèles.

Pourquoi les systèmes d’intelligence artificielle ont-ils des hallucinations ?

Les systèmes d’intelligence artificielle peuvent être victimes d’hallucinations en raison de divers facteurs, notamment l’ajustement excessif, les biais dans les données d’entraînement et la grande complexité des modèles.

Quelle est la fréquence des hallucinations dans le domaine de l’intelligence artificielle ?

Les hallucinations peuvent être assez fréquentes dans l’intelligence artificielle, en particulier dans les grands modèles de langage et les outils génératifs qui manquent de contraintes sur les résultats possibles.

Est-il possible de prévenir les hallucinations liées à l’intelligence artificielle ?

Pour prévenir les hallucinations liées à l’intelligence artificielle, il faut définir des limites claires pour les modèles d’intelligence artificielle à l’aide d’outils de filtrage et fixer des seuils probabilistes.

Quelles sont les conséquences des hallucinations liées à l’intelligence artificielle ?

Les conséquences peuvent aller de la diffusion de fausses informations à des dommages réels, tels que des diagnostics médicaux erronés.

Comment les hallucinations de l’intelligence artificielle affectent-elles la confiance dans les systèmes d’intelligence artificielle ?

Les hallucinations peuvent ébranler la confiance dans l’intelligence artificielle, car il est difficile de se fier aux résultats du système sans vérification.

Existe-t-il des exemples célèbres d’hallucinations liées à l’intelligence artificielle ?

Oui. Parmi les exemples notables, on peut citer les chatbots qui génèrent de faux travaux universitaires ou qui fournissent des informations erronées dans le cadre d’interactions avec le service clientèle.

Les hallucinations de l’intelligence artificielle se produisent-elles à la fois dans les systèmes de langage et d’images ?

Oui, les hallucinations de l’intelligence artificielle peuvent se produire à la fois dans les modèles de langage et dans les systèmes de vision par ordinateur.

Quel rôle jouent les données d’entraînement dans les hallucinations de l’intelligence artificielle ?

Les données d’entraînement sont cruciales – des données biaisées ou non représentatives peuvent conduire à des hallucinations qui reflètent ces biais.

Des recherches sont-elles en cours sur les hallucinations liées à l’intelligence artificielle ?

Oui, d’importants travaux de recherche sont consacrés à la compréhension et à l’atténuation des hallucinations de l’intelligence artificielle afin d’améliorer la fiabilité des systèmes d’intelligence artificielle.