Perché i sistemi di intelligenza artificiale hanno le allucinazioni

Oggi l’intelligenza artificiale (AI) opera sotto forma di assistenti virtuali, dispositivi per la casa intelligente, diagnostica sanitaria e auto a guida autonoma. Tuttavia, lo sviluppo di questa tecnologia cruciale presenta un problema, poiché provoca le cosiddette “allucinazioni da intelligenza artificiale”.

Perché i sistemi di intelligenza artificiale hanno le allucinazioni?

In parole povere, le allucinazioni dell’intelligenza artificiale si riferiscono a casi in cui i sistemi di intelligenza artificiale generano o deducono informazioni errate che non esistevano durante la raccolta dei dati di addestramento. D’altra parte, la mancata risoluzione delle allucinazioni dell’intelligenza artificiale può causare problemi come la diffusione di falsità e l’elaborazione di giudizi distorti, con conseguenti problemi economici e di sicurezza. Spiegheremo perché i sistemi di intelligenza artificiale hanno allucinazioni, le cause e la prevenzione.

Le allucinazioni dei sistemi di intelligenza artificiale si verificano quando un modello linguistico di grandi dimensioni è in grado di osservare caratteristiche o oggetti che non sono mai stati visti o che non esistono affatto. Questo fa sì che generi informazioni di output errate che non hanno senso nella vita reale, ma che in alcuni casi si basano su modelli/oggetti percepiti da lui stesso.

In altre parole, i sistemi di intelligenza artificiale hanno allucinazioni quando i modelli fanno affermazioni false o dipendono da schemi banali e pregiudizi nei dati di addestramento per produrre o difendere risposte controverse, ma questo avviene a un livello di complessità superiore.

Cause delle allucinazioni dell’intelligenza artificiale

Ci sono alcuni motivi principali per cui i sistemi di intelligenza artificiale hanno le allucinazioni:

Distorsioni dei dati

La maggior parte dei modelli presenta dati mancanti e/o campioni di dati di addestramento incompleti o contenenti elementi parziali/pregiudiziali, perché l’intelligenza artificiale non ha modo di giudicare l’equità o il pregiudizio in questione.

Ad esempio, ci sono stati casi in cui gli algoritmi di riconoscimento facciale non sono stati in grado di riconoscere i volti non bianchi – ciò è stato attribuito a set di dati di addestramento compilati sulla base di tali pregiudizi.

Overfitting

L’eccesso di informazioni nel database è un’altra ragione per cui i sistemi di intelligenza artificiale sono allucinati. Alcuni dei problemi relativi alle reti neurali identificate sono che, mentre apprendono da modelli in questo set di dati limitato, possono “memorizzare” o “adattare eccessivamente” modelli troppo rumorosi. Questo, a sua volta, le rende più inclini ad avere allucinazioni quando vengono esposte a input diversi da quelli incontrati durante l’addestramento.

Accumulo di errori

Piccoli errori o rumori nei dati di ingresso saranno amplificati nella loro forma elaborata gerarchicamente e, ad esempio, in modelli di trasformatori di grandi dimensioni con alcuni miliardi di parametri, possono portare alla generazione di output distorti o addirittura falsificati.

Loop di feedback

Il problema delle allucinazioni può persino aggravarsi nei sistemi auto-supervisionati, se non viene corretto. Ad esempio, un’intelligenza artificiale può creare una foto basata su una rete neurale e un deepfake può far credere a un’altra intelligenza artificiale che l’informazione sia reale.

Possibili danni derivanti dalle allucinazioni dell’intelligenza artificiale

Le allucinazioni dell’intelligenza artificiale pongono serie sfide. Ecco i casi che possiamo aspettarci se non vengono affrontati:

Disinformazione

La mancanza di veridicità, unita alla natura falsificante dell’intelligenza artificiale dei bot, fa sì che statistiche false e disinformazione possano diventare virali e distorcere la capacità delle persone di trovare dati affidabili. Questo è molto preoccupante se i sistemi sono utilizzati in ambito giornalistico, educativo o di elaborazione di politiche pubbliche.

Violazione della privacy

Dati privati sensibili su individui che non sono mai stati osservati potrebbero invadere profondamente la privacy ed erodere la fiducia, se tali sistemi vengono applicati a compiti corrispondenti, come l’assistenza sanitaria, le forze dell’ordine, ecc.

Danni ai gruppi emarginati

Come è già stato osservato in precedenza, negli insiemi di dati dell’intelligenza artificiale si dice che i pregiudizi di selezione discriminino i gruppi socialmente svantaggiati, trasformando la giustizia sociale in un problema ancora più grande.

Rischi per la sicurezza

Le allucinazioni dell’intelligenza artificiale hanno informazioni errate riguardo alle note o alle guide delle auto a guida autonoma o degli apparecchi di diagnostica medica, che possono portare a incidenti, lesioni o decisioni mediche sbagliate perché tali sistemi di intelligenza artificiale dipendono da informazioni imperfette.

Costi economici

La mancanza di innovazioni e di crescita derivante dall’uso di un’intelligenza artificiale allucinante per strutture e servizi multipli potrebbe portare a una perdita di fiducia dei clienti e a una riduzione del valore delle organizzazioni e delle strutture associate. Non è sempre possibile attribuire una cifra tangibile a questi costi, ma i pericoli sono troppo elevati.

Prevenire le allucinazioni dell’intelligenza artificiale

Ecco le misure proattive adottate dai ricercatori per prevenire le allucinazioni dell’intelligenza artificiale:

Ampia gamma di dati imparziali

Raccogliere insiemi di dati di addestramento che non contengano preconcetti o favoriscano una parte della società rispetto a un’altra aiuta l’intelligenza artificiale ad addestrarsi bene. Le banche dati pubbliche devono essere pulite e controllate per evitare che si diffondano dati falsi.

Preelaborazione dei dati

Misure come la rimozione di osservazioni eclatanti, l’anonimizzazione dei dati, la riduzione delle caratteristiche, ecc. possono aiutare a eliminare il rumore e i modelli indesiderati dai dati prima dell’alimentazione del sistema.

Valutazione del modello

I sistemi di intelligenza artificiale devono essere sottoposti a controlli costanti utilizzando nuovi set di dati di valutazione, progettati con cura per identificare nuove allucinazioni.

Monitoraggio del modello

Per tenere conto di una risposta indesiderata dell’intelligenza artificiale, meccanismi come le schede modello o le dichiarazioni di dati possono consentire di registrare il comportamento dell’intelligenza artificiale nel corso del tempo.

Intelligenza artificiale spiegabile

Utilizzando metodologie come le mappe di attenzione e i valori SHAP, si può capire perché i modelli hanno dato quella risposta, oltre a identificare semplici analisi basate su caratteristiche compatibili con i modelli rispetto ai modelli casuali.

Impiego conservativo

I sistemi di intelligenza artificiale dovrebbero essere limitati a domini specifici e avere un uso limitato e controllato, con la supervisione degli esseri umani, fino a quando l’intelligenza artificiale non si dimostrerà sicura, affidabile e doppiamente equa nel trattamento con gli esseri umani.

Per aiutare l’intelligenza artificiale a continuare a portare benefici alla società e a prevenire il pericolo di danni da allucinazione, le organizzazioni dovrebbero affrontare in anticipo i problemi di qualità dei dati e dei modelli. Siate cauti e responsabili nell’evitare le gravi ramificazioni che possono emergere dalle allucinazioni dell’intelligenza artificiale e dalle relative fallacie.

In breve, i rischi di allucinazione dell’intelligenza artificiale possono essere controllati se si attuano le strategie corrispondenti per attenuarli. Tuttavia, evitare i possibili esiti negativi richiede un’osservazione costante da parte degli sviluppatori di tecnologie e di coloro che influenzano i cambiamenti politici. Solo dopo aver fatto questi tentativi congiunti potremo sviluppare un sistema di intelligenza artificiale che abbia un impatto positivo sugli esseri umani, garantendo al contempo la loro protezione.

Infine, abbiamo preparato per voi le domande più frequenti e le relative risposte

Cosa sono le allucinazioni dell’intelligenza artificiale?

Le allucinazioni dell’intelligenza artificiale si riferiscono a casi in cui i sistemi di intelligenza artificiale generano informazioni false o insensate, spesso a causa di un’interpretazione errata di dati o modelli.

Perché i sistemi di intelligenza artificiale hanno allucinazioni?

I sistemi di intelligenza artificiale possono avere allucinazioni a causa di vari fattori, tra cui l’overfitting, le distorsioni nei dati di addestramento e l’elevata complessità del modello.

Quanto sono comuni le allucinazioni dell’intelligenza artificiale?

Le allucinazioni possono essere piuttosto comuni nell’intelligenza artificiale, soprattutto nei modelli linguistici di grandi dimensioni e negli strumenti generativi che mancano di vincoli sui possibili risultati.

È possibile prevenire le allucinazioni dell’intelligenza artificiale?

La prevenzione delle allucinazioni dell’intelligenza artificiale prevede la definizione di confini chiari per i modelli di intelligenza artificiale utilizzando strumenti di filtraggio e stabilendo soglie probabilistiche.

Quali sono le conseguenze delle allucinazioni da intelligenza artificiale?

Le conseguenze possono andare dalla diffusione di informazioni errate fino a causare danni reali, come diagnosi mediche errate.

In che modo le allucinazioni dell’intelligenza artificiale influenzano la fiducia nei sistemi di intelligenza artificiale?

Le allucinazioni possono minare la fiducia nell’intelligenza artificiale, in quanto rendono difficile fare affidamento sui risultati del sistema senza una verifica.

Esistono esempi famosi di allucinazioni dell’intelligenza artificiale?

Sì, tra gli esempi più significativi vi sono i chatbot che generano falsi documenti accademici o forniscono informazioni errate nelle interazioni con il servizio clienti.

Le allucinazioni dell’intelligenza artificiale si verificano sia nei sistemi linguistici che in quelli di immagini?

Sì, le allucinazioni dell’intelligenza artificiale possono verificarsi sia nei modelli linguistici che nei sistemi di visione artificiale.

Che ruolo hanno i dati di addestramento nelle allucinazioni dell’intelligenza artificiale?

I dati di addestramento sono fondamentali: dati distorti o non rappresentativi possono portare ad allucinazioni che riflettono tali distorsioni.

Ci sono ricerche in corso per affrontare il problema delle allucinazioni dell’intelligenza artificiale?

Sì, esiste una ricerca significativa incentrata sulla comprensione e sull’attenuazione delle allucinazioni dell’intelligenza artificiale per migliorare l’affidabilità dei sistemi di intelligenza artificiale.