Kodėl dirbtinio intelekto sistemos haliucinuoja
Šiandien dirbtinis intelektas (DI) veikia virtualių asistentų, išmaniųjų namų prietaisų, sveikatos priežiūros diagnostikos ir savaeigių automobilių pavidalu. Vis dėlto plėtojant šią itin svarbią technologiją kyla problema, nes ji sukelia vadinamąsias dirbtinio intelekto haliucinacijas.
Kodėl dirbtinio intelekto sistemos turi haliucinacijų?
Paprastai tariant, dirbtinio intelekto haliucinacijos reiškia atvejus, kai dirbtinio intelekto sistemos generuoja arba daro išvadas apie neteisingą informaciją, kurios nebuvo renkant jų mokymo duomenis. Kita vertus, neišsprendus dirbtinio intelekto haliucinacijų, gali kilti tokių problemų kaip melagingų duomenų skleidimas ir neobjektyvių sprendimų priėmimas, o tai kelia ekonominių ir saugumo problemų. Paaiškinsime, kodėl dirbtinio intelekto sistemos patiria haliucinacijas, jų priežastis ir prevenciją.
Dirbtinio intelekto sistemų haliucinacijos gali pasireikšti, kai didelės kalbos modelis sugeba pastebėti požymius ar objektus, kurių niekada nematė arba kurie apskritai neegzistuoja. Dėl to jis generuoja neteisingą išvesties informaciją, kuri neturi realios prasmės, tačiau kai kuriais atvejais ji pagrįsta jo paties pastebėtais modeliais / objektais.
Kitaip tariant, dirbtinio intelekto sistemos haliucinuoja, nes modeliai pateikia neteisingus teiginius arba priklauso nuo trivialių mokymo duomenų modelių ir išankstinių nuostatų, kad sukurtų arba apgintų prieštaringus atsakymus, tačiau tai vyksta aukštesniu sudėtingumo lygmeniu.
Dirbtinio intelekto haliucinacijų priežastys
Yra kelios pagrindinės priežastys, kodėl dirbtinio intelekto sistemos haliucinuoja:
Duomenų šališkumas
Dauguma modelių pateikia trūkstamus duomenis ir (arba) mokymo duomenų pavyzdžius, kurie yra neišsamūs arba kuriuose yra šališkų / išankstinių nuostatų, nes dirbtinis intelektas neturi galimybės įvertinti susijusio teisingumo ar išankstinių nuostatų.
Pavyzdžiui, buvo atvejų, kai veidų atpažinimo algoritmai nesugebėjo atpažinti ne baltaodžių veidų – tai buvo priskiriama mokymo duomenų rinkiniams, kurie buvo sudaryti remiantis tokiais šališkumais.
Per didelis pritaikymas
Dar viena priežastis, dėl kurios dirbtinio intelekto sistemos haliucinuoja, yra per didelis informacijos kiekis jų duomenų bazėje. Kai kurios su identifikuotais neuroniniais tinklais susijusios problemos yra tai, kad mokydamiesi iš modelių, esančių šiame ribotame duomenų rinkinyje, jie gali veikiau „įsiminti“ arba „per daug pritaikyti“ pernelyg triukšmingus modelius. Dėl to, savo ruožtu, yra didesnė tikimybė, kad jie haliucinuos, kai bus veikiami kitokių įvesties duomenų, nei tie, su kuriais susidūrė mokymosi metu.
Klaidų kaupimasis
Mažos klaidos ar triukšmas įvesties duomenyse bus padidintas hierarchiškai apdorotoje jų formoje, ir, pavyzdžiui, dideliuose transformatorių modeliuose su keliais milijardais parametrų tai gali lemti iškraipytų ar net išgalvotų išėjimų generavimą.
Grįžtamojo ryšio kilpos
Haliucinacijų problema savikontrolės sistemose gali net komplikuotis, jei nebus ištaisyta. Pavyzdžiui, dirbtinis intelektas, remdamasis neuroniniu tinklu, gali sukurti nuotrauką, o giluminė klastotė gali priversti kitą dirbtinį intelektą patikėti, kad informacija yra tikra.
Galima žala, kurią sukelia dirbtinio intelekto haliucinacijos
Dirbtinio intelekto haliucinacijos kelia rimtų problemų. Štai šie atvejai, kurių galime tikėtis, jei į juos nebus atsižvelgta:
Dezinformacija
Tiesos trūkumas kartu su dirbtinio intelekto botų klastojimo pobūdžiu reiškia, kad suklastota statistika ir dezinformacija gali plisti virusu ir iškreipti žmonių gebėjimą rasti patikimus duomenis. Tai kelia didelį nerimą, jei sistemos naudojamos žurnalistikoje, švietime ar viešosios politikos formavimo srityse.
Privatumo pažeidimai
Jautrūs privatūs duomenys apie asmenis, kurie niekada nebuvo stebimi, gali iš esmės pažeisti privatumą ir pakirsti pasitikėjimą, jei tokios sistemos būtų taikomos atitinkamoms užduotims, pavyzdžiui, sveikatos priežiūros, teisėsaugos ir kt. srityse.
Žala marginalizuotoms grupėms
Kaip jau buvo minėta anksčiau, dirbtinio intelekto duomenų rinkiniuose atrankos šališkumas, kaip gerai žinoma, diskriminuoja socialiai pažeidžiamas grupes ir paverčia socialinį teisingumą dar didesne problema.
Pavojus saugumui
Haliucinacijos dirbtinis intelektas turi klaidingos informacijos, susijusios su savavaldžių automobilių ar medicininės diagnostikos aparatų užrašais ar gidais, o tai gali lemti nelaimingus atsitikimus, sužalojimus ar neteisingus medicininius sprendimus, nes tokios dirbtinio intelekto sistemos priklauso nuo netobulos informacijos.
Ekonominės sąnaudos
Dėl inovacijų ir augimo trūkumo naudojant haliucinuojantį dirbtinį intelektą daugeliui objektų ir teikiant paslaugas gali sumažėti klientų pasitikėjimas, taip pat sumažėti susijusių organizacijų ir objektų vertė. Priskirti apčiuopiamą skaičių šioms išlaidoms ne visada įmanoma, tačiau pavojai pernelyg dideli.
Dirbtinio intelekto haliucinacijų prevencija
Toliau pateikiami aktyvūs veiksmai, kurių imasi mokslininkai, siekdami užkirsti kelią dirbtinio intelekto haliucinacijoms:
Platus nešališkų duomenų spektras
Rinkti mokomųjų duomenų rinkinius, kuriuose nėra išankstinių nuostatų ir kuriuose vienai visuomenės daliai neteikiama pirmenybė kitos visuomenės dalies atžvilgiu, padeda dirbtiniam intelektui gerai treniruotis. Viešosios duomenų bazės turi būti valomos ir tikrinami faktai, kad būtų užkirstas kelias netikrų duomenų plitimui.
Pirminis duomenų apdorojimas
Tokios priemonės, kaip akivaizdžių pastebėjimų pašalinimas, duomenų anonimizavimas, požymių mažinimas ir kt. gali padėti pašalinti triukšmą ir nepageidaujamus modelius iš duomenų prieš pateikiant juos sistemai.
Modelio vertinimas
Dirbtinio intelekto sistemos turėtų būti nuolat tikrinamos naudojant naujus vertinimo duomenų rinkinius, kurie yra kruopščiai parengti naujoms haliucinacijoms nustatyti.
Modelio stebėsena
Siekiant atsižvelgti į dirbtinio intelekto nepageidaujamą reakciją, tokie mechanizmai, kaip modelio kortelės arba duomenų ataskaitos, gali leisti fiksuoti dirbtinio intelekto elgseną laikui bėgant.
Paaiškinamas dirbtinis intelektas
Naudojant tokias metodikas, kaip dėmesio kortelės ir SHAP reikšmės, galima suprasti, kodėl modeliai sugalvojo tokį atsaką, taip pat nustatyti paprastas analizes, pagrįstas su modeliais suderinamomis savybėmis, palyginti su atsitiktiniais modeliais.
Konservatyvus diegimas
Dirbtinio intelekto sistemos turėtų būti apribotos konkrečiomis sritimis ir naudojamos tik ribotai ir kontroliuojamai, o žmonės turėtų prižiūrėti jų naudojimą, kol dirbtinis intelektas neįrodys, kad yra saugus, patikimas ir dvigubai sąžiningesnis už žmones.
Kad dirbtinis intelektas ir toliau teiktų naudą visuomenei ir išvengtų su haliucinacijomis susijusios žalos pavojaus, organizacijos turėtų iš anksto susidurti su duomenų ir modelių kokybės problemomis. Būkite atsargūs ir atsakingi, kad išvengtumėte rimtų pasekmių, kurios gali kilti dėl dirbtinio intelekto haliucinacijų ir susijusių klaidų.
Trumpai tariant, dirbtinio intelekto haliucinacijų keliamą riziką galima kontroliuoti, jei įgyvendinamos atitinkamos jos mažinimo strategijos. Vis dėlto, norint išvengti galimų neigiamų padarinių, reikia, kad technologijų kūrėjai ir asmenys, darantys įtaką politikos pokyčiams, nuolat stebėtų situaciją. Tik po tokių bendrų pastangų galime sukurti dirbtinio intelekto sistemą, kuri teigiamai veiktų žmones ir kartu užtikrintų jų apsaugą.
Galiausiai parengėme jums dažniausiai užduodamus klausimus ir atsakymus į juos
Kas yra dirbtinio intelekto haliucinacijos?
Dirbtinio intelekto haliucinacijos – tai atvejai, kai dirbtinio intelekto sistemos generuoja klaidingą arba beprasmišką informaciją, dažnai dėl neteisingo duomenų ar modelių interpretavimo.
Kodėl dirbtinio intelekto sistemos sukelia haliucinacijas?
Dirbtinio intelekto sistemos gali turėti haliucinacijų dėl įvairių veiksnių, įskaitant perteklinį pritaikymą, mokymo duomenų šališkumą ir didelį modelio sudėtingumą.
Kaip dažnai pasitaiko dirbtinio intelekto haliucinacijos?
Haliucinacijos dirbtiniame intelekte gali būti gana dažnos, ypač dideliuose kalbos modeliuose ir generatyvinėse priemonėse, kuriose nėra galimų rezultatų apribojimų.
Ar galima išvengti dirbtinio intelekto haliucinacijų?
Siekiant išvengti dirbtinio intelekto haliucinacijų, reikia nustatyti aiškias dirbtinio intelekto modelių ribas naudojant filtravimo priemones ir nustatyti tikimybines ribas.
Kokios yra dirbtinio intelekto haliucinacijų pasekmės?
Pasekmės gali būti įvairios – nuo dezinformacijos skleidimo iki realios žalos, pavyzdžiui, neteisingos medicininės diagnozės.
Kaip dirbtinio intelekto haliucinacijos veikia pasitikėjimą dirbtinio intelekto sistemomis?
Haliucinacijos gali pakirsti pasitikėjimą dirbtiniu intelektu, nes dėl jų sunku pasitikėti sistemos rezultatais be patikrinimo.
Ar yra žinomų dirbtinio intelekto haliucinacijų pavyzdžių?
Taip, žymūs pavyzdžiai yra pokalbių robotai, generuojantys suklastotus akademinius darbus arba teikiantys neteisingą informaciją bendraujant su klientais.
Ar dirbtinio intelekto haliucinacijų pasitaiko ir kalbos, ir vaizdų sistemose?
Taip, dirbtinio intelekto haliucinacijos gali pasireikšti ir kalbos modeliuose, ir kompiuterinės regos sistemose.
Kokį vaidmenį dirbtinio intelekto haliucinacijose atlieka mokymo duomenys?
Mokymo duomenys yra labai svarbūs – šališki arba nereprezentatyvūs duomenys gali sukelti haliucinacijas, kurios atspindi šiuos šališkumus.
Ar atliekami moksliniai tyrimai, skirti dirbtinio intelekto haliucinacijų problemai spręsti?
Taip, atliekama daug mokslinių tyrimų, kuriais siekiama suprasti ir sumažinti dirbtinio intelekto haliucinacijas, kad būtų padidintas dirbtinio intelekto sistemų patikimumas.