De ce au sistemele de inteligență artificială halucinații

În prezent, inteligența artificială (AI) funcționează sub formă de asistenți virtuali, dispozitive inteligente pentru acasă, diagnostice medicale și mașini care se conduc singure. Cu toate acestea, apare o problemă cu dezvoltarea acestei tehnologii critice, deoarece provoacă ceea ce se numește „halucinații ale inteligenței artificiale”.

De ce au sistemele de inteligență artificială halucinații?

Pur și simplu vorbind, halucinațiile inteligenței artificiale se referă la cazurile în care sistemele de inteligență artificială generează sau deduc informații incorecte care nu au existat în timpul colectării datelor lor de formare. Pe de altă parte, nerezolvarea halucinațiilor de inteligență artificială poate duce la probleme precum răspândirea de falsuri și formularea de judecăți părtinitoare, ceea ce duce la probleme atât economice, cât și de siguranță. Vom explica de ce sistemele de inteligență artificială au halucinații, cauzele acestora și prevenirea lor.

Halucinațiile sistemelor de inteligență artificială pot apărea atunci când un model de limbaj mare este capabil să observe caracteristici sau obiecte care nu au fost niciodată văzute sau care nu există deloc. Acest lucru îl determină să genereze informații de ieșire incorecte care nu au sens în viața reală, dar, în unele cazuri, se bazează pe modele/obiecte percepute de el însuși.

Cu alte cuvinte, sistemele de inteligență artificială au halucinații deoarece modelele fac afirmații false sau depind de modele și prejudecăți banale din datele de formare pentru a produce sau a apăra răspunsuri controversate, dar acest lucru se întâmplă la un nivel mai ridicat de complexitate.

Cauzele halucinațiilor inteligenței artificiale

Există câteva motive-cheie pentru care sistemele de inteligență artificială au halucinații:

Date părtinitoare

Datele lipsă și/sau eșantioanele de date de antrenament care sunt incomplete sau conțin elemente tendențioase/prejudicioase sunt prezentate de majoritatea modelelor deoarece inteligența artificială nu are nicio modalitate de a judeca corectitudinea sau prejudecățile implicate.

De exemplu, au existat cazuri în care algoritmii de recunoaștere facială nu au fost capabili să recunoască fețe care nu sunt albe – acest lucru a fost atribuit seturilor de date de formare care au fost compilate pe baza unor astfel de prejudecăți.

Adaptarea excesivă

Excesul de informații în baza sa de date este un alt motiv pentru care sistemele de inteligență artificială au halucinații. Unele dintre problemele legate de rețelele neuronale identificate sunt că, în timp ce învață din modelele din acest set limitat de date, acestea pot mai degrabă să „memoreze” sau să „supraajusteze” modele prea zgomotoase. Acest lucru, la rândul său, le face mai susceptibile de a avea halucinații atunci când sunt expuse la intrări diferite de cele pe care le-au întâlnit în timpul formării.

Acumularea erorilor

Erorile mici sau zgomotul din datele de intrare vor fi amplificate în forma lor procesată ierarhic, iar în cazul modelelor mari de transformatoare cu câteva miliarde de parametri, de exemplu, aceasta poate duce la generarea de ieșiri distorsionate sau chiar fabricate.

Buclele de reacție

Problema halucinațiilor se poate chiar agrava în sistemele autosupravegheate dacă nu este corectată. De exemplu, o inteligență artificială poate crea o fotografie pe baza unei rețele neuronale, iar un deepfake poate face o altă inteligență artificială să creadă că informația este reală.

Posibilele prejudicii care decurg din halucinațiile inteligenței artificiale

Halucinațiile inteligenței artificiale prezintă provocări serioase. Iată următoarele cazuri la care ne putem aștepta dacă nu sunt abordate:

Dezinformare

Lipsa de veridicitate combinată cu natura falsificatoare a inteligenței artificiale bot înseamnă că statisticile false și dezinformările ar putea deveni virale și ar putea distorsiona capacitatea oamenilor de a găsi date fiabile. Acest lucru este îngrijorător în cazul în care sistemele sunt utilizate în domeniile jurnalismului, educației sau elaborării politicilor publice.

Încălcarea vieții private

Datele private sensibile despre persoane care nu au fost niciodată observate ar putea încălca profund viața privată și ar putea eroda încrederea, în cazul în care astfel de sisteme sunt aplicate la sarcini corespunzătoare, cum ar fi asistența medicală, aplicarea legii etc.

Daune aduse grupurilor marginalizate

După cum s-a menționat anterior, în seturile de date de inteligență artificială, se spune că prejudecățile de selecție discriminează grupurile dezavantajate social și transformă justiția socială într-o problemă și mai mare.

Pericolele pentru siguranță

Halucinațiile inteligența artificială are informații eronate în ceea ce privește notele sau ghidurile de pe mașinile care se conduc singure sau aparatele medicale de diagnosticare, ceea ce poate duce la accidente, răniri sau decizii medicale greșite, deoarece astfel de sisteme de inteligență artificială depind de informații imperfecte.

Costuri economice

Lipsa inovațiilor și a creșterii generate de utilizarea inteligenței artificiale halucinante pentru mai multe facilități și prestări de servicii ar putea duce la pierderea încrederii clienților, precum și la o reducere a valorii organizațiilor și facilităților asociate. Atribuirea unei cifre tangibile acestor costuri nu este întotdeauna posibilă, dar pericolele sunt prea mari.

Prevenirea halucinațiilor inteligenței artificiale

Iată care sunt pașii proactivi pe care cercetătorii îi iau cu privire la prevenirea halucinațiilor inteligenței artificiale:

O gamă largă de date imparțiale

Colectarea seturilor de date de antrenament care nu conțin preconcepții sau nu favorizează o secțiune a societății în detrimentul alteia ajută inteligența artificială să se antreneze bine. Bazele de date publice trebuie să fie curățate și să se verifice faptele pentru a preveni răspândirea datelor false.

Preprocesarea datelor

Măsuri precum eliminarea observațiilor flagrante, anonimizarea datelor, reducerea caracteristicilor etc. pot ajuta la eliminarea zgomotului și a modelelor nedorite din date înainte de a le introduce în sistem.

Evaluarea modelului

Sistemele de inteligență artificială ar trebui să fie supuse unei verificări constante cu ajutorul unor noi seturi de date de evaluare care sunt concepute cu atenție pentru a identifica noi halucinații.

Monitorizarea modelului

Pentru a da seama de un răspuns nedorit al inteligenței artificiale, mecanisme precum cardurile de model sau declarațiile de date pot permite înregistrarea comportamentului inteligenței artificiale în decursul timpului.

Inteligența artificială explicabilă

Folosind metodologii precum hărțile atenției și valorile SHAP, se poate înțelege de ce modelele au venit cu acel răspuns, precum și identificarea unor analize simple bazate pe caracteristicile compatibile cu modelele în comparație cu modelele aleatorii.

Implementarea conservatoare

Sistemele de inteligență artificială ar trebui să fie limitate la domenii specifice și să aibă doar o utilizare limitată și controlată, cu oameni care supraveghează utilizarea, până când inteligența artificială se dovedește a fi sigură, fiabilă și de două ori mai echitabilă în tratamentul cu oamenii.

Pentru a ajuta inteligența artificială să continue să genereze beneficii societale și să prevină pericolul unor daune legate de halucinații, organizațiile ar trebui să se confrunte în avans cu problemele legate de calitatea datelor și a modelelor. Să fie prudente și responsabile în evitarea ramificațiilor grave care pot apărea din cauza halucinațiilor inteligenței artificiale și a falsurilor aferente.

Pe scurt, riscurile halucinațiilor legate de inteligența artificială pot fi controlate dacă sunt puse în aplicare strategii corespunzătoare pentru atenuarea lor. Cu toate acestea, evitarea posibilelor rezultate negative necesită o observație persistentă din partea dezvoltatorilor de tehnologie și a celor care influențează schimbările politice. Numai după efectuarea unor astfel de încercări comune putem dezvolta un sistem de inteligență artificială care să aibă un impact pozitiv asupra oamenilor, garantând în același timp protecția acestora.

În final, am pregătit pentru dumneavoastră cele mai frecvente întrebări și răspunsurile acestora

Ce sunt halucinațiile inteligenței artificiale?

Halucinațiile inteligenței artificiale se referă la cazurile în care sistemele de inteligență artificială generează informații false sau absurde, adesea din cauza interpretării greșite a datelor sau a modelelor.

De ce au halucinații sistemele de inteligență artificială?

Sistemele de inteligență artificială pot avea halucinații din cauza diverșilor factori, inclusiv supraadaptarea, părtinirea datelor de formare și complexitatea ridicată a modelului.

Cât de frecvente sunt halucinațiile inteligenței artificiale?

Halucinațiile pot fi destul de frecvente în inteligența artificială, în special în cazul modelelor lingvistice mari și al instrumentelor generative care nu au constrângeri privind rezultatele posibile.

Pot fi prevenite halucinațiile în inteligența artificială?

Prevenirea halucinațiilor în inteligența artificială implică definirea unor limite clare pentru modelele de inteligență artificială, utilizând instrumente de filtrare și stabilind praguri probabilistice.

Care sunt consecințele halucinațiilor inteligenței artificiale?

Consecințele pot varia de la răspândirea de informații eronate la provocarea de daune reale, cum ar fi diagnosticele medicale incorecte.

Cum afectează halucinațiile inteligenței artificiale încrederea în sistemele de inteligență artificială?

Halucinațiile pot submina încrederea în inteligența artificială, deoarece fac dificilă încrederea în rezultatele sistemului fără verificare.

Există exemple celebre de halucinații ale inteligenței artificiale?

Da, printre exemplele notabile se numără roboții de chat care generează lucrări academice false sau care furnizează informații incorecte în interacțiunile cu serviciile pentru clienți.

Halucinațiile inteligenței artificiale apar atât în sistemele lingvistice, cât și în cele de imagini?

Da, halucinațiile de inteligență artificială pot apărea atât în modelele lingvistice, cât și în sistemele de viziune computerizată.

Ce rol joacă datele de formare în halucinațiile inteligenței artificiale?

Datele de antrenament sunt esențiale – datele părtinitoare sau nereprezentative pot duce la halucinații care reflectă aceste părtiniri.

Există cercetări în curs pentru abordarea halucinațiilor inteligenței artificiale?

Da, există cercetări semnificative axate pe înțelegerea și atenuarea halucinațiilor inteligenței artificiale pentru a îmbunătăți fiabilitatea sistemelor de inteligență artificială.