Varför har de artificiell intelligens system hallucinera

Idag används artificiell intelligens (AI) i form av virtuella assistenter, smarta hem, diagnostik inom sjukvården och självkörande bilar. Trots detta uppstår ett problem med utvecklingen av denna kritiska teknik eftersom den orsakar vad som kallas ”hallucinationer av artificiell intelligens”.

Varför hallucinerar de artificiella intelligenssystemen?

Enkelt uttryckt handlar hallucinationer med artificiell intelligens om fall där system för artificiell intelligens genererar eller drar slutsatser om felaktig information som inte fanns när de samlade in data under utbildningen. Å andra sidan kan misslyckande med att lösa hallucinationer av artificiell intelligens leda till problem som att sprida osanningar och göra partiska bedömningar, vilket leder till både ekonomiska och säkerhetsproblem. Vi kommer att förklara varför hallucinerar artificiella intelligenssystem, dess orsaker och dess förebyggande.

Hallucinationer i system för artificiell intelligens uppstår sannolikt när en stor språkmodell kan observera funktioner eller objekt som aldrig har setts eller existerar alls. Detta leder till att den genererar felaktig utdata som inte stämmer överens med verkligheten, men i vissa fall baseras den på mönster/objekt som den själv har uppfattat.

Med andra ord hallucinerar system för artificiell intelligens när modeller gör falska uttalanden eller är beroende av triviala mönster och fördomar i träningsdata för att producera eller försvara kontroversiella svar, men detta sker på en högre komplexitetsnivå.

Orsaker till hallucinationer av artificiell intelligens

Det finns några viktiga skäl till varför system för artificiell intelligens hallucinerar:

Förvrängningar i data

Saknade data och/eller träningsdataprov som är ofullständiga eller innehåller partiska/fördomsfulla element tas fram av de flesta modeller eftersom den artificiella intelligensen inte har något sätt att bedöma den rättvisa eller fördom som är inblandad.

Det har till exempel förekommit att algoritmer för ansiktsigenkänning inte har kunnat känna igen icke-vita ansikten – detta har tillskrivits träningsdatauppsättningar som sammanställts baserat på sådana fördomar.

Överanpassning

Överdriven information i databasen är en annan anledning till att system för artificiell intelligens hallucinerar. Några av problemen med de identifierade neurala nätverken är att när de lär sig av mönster i denna begränsade dataset kan de snarare ”memorera” eller ”överanpassa” alltför bullriga mönster. Detta gör i sin tur att de löper större risk att hallucinera när de utsätts för input som skiljer sig från den de mötte under träningen.

Ackumulering av fel

Små fel eller brus i indata kommer att förstoras i sin hierarkiskt bearbetade form, och i stora transformatormodeller med några miljarder parametrar kan det t.ex. leda till förvrängda eller till och med fabricerade utdata.

Återkopplingsslingor

Problemet med hallucinationer kan till och med förvärras i självövervakande system om det inte åtgärdas. En artificiell intelligens kan t.ex. skapa ett foto baserat på ett neuralt nätverk, och en deepfake kan få en annan artificiell intelligens att tro att informationen är verklig.

Möjliga skador som kommer med hallucinationer med artificiell intelligens

Hallucinationer med artificiell intelligens innebär allvarliga utmaningar. Här är följande fall som vi kan förvänta oss om de inte åtgärdas:

Felaktig information

Brist på sanningsenlighet i kombination med förfalskningskaraktären hos bot artificiell intelligens innebär att falsk statistik och felaktig information kan bli viral och snedvrida människors förmåga att hitta tillförlitliga uppgifter. Detta är mycket oroande om systemen används inom journalistik, utbildning eller beslutsfattande.

Kränkningar av den personliga integriteten

Känsliga privata uppgifter om individer som aldrig har observerats kan innebära ett allvarligt intrång i den personliga integriteten och undergräva förtroendet om sådana system används för motsvarande uppgifter, t.ex. inom hälso- och sjukvård, brottsbekämpning etc.

Skador för marginaliserade grupper

Som tidigare nämnts kan urvalsbias i dataset för artificiell intelligens leda till diskriminering av socialt missgynnade grupper och göra social rättvisa till ett ännu större problem.

Säkerhetsrisker

Hallucinationer artificiell intelligens har felaktig information om anteckningar eller guider på självkörande bilar eller medicinsk diagnostisk apparatur, vilket kan leda till olyckor, skador eller felaktiga medicinska beslut eftersom sådana system för artificiell intelligens är beroende av ofullständig information.

Ekonomiska kostnader

Brist på innovationer och tillväxt till följd av att hallucinerande artificiell intelligens används för flera anläggningar och tjänsteleveranser kan leda till att kundernas förtroende minskar och att värdet på tillhörande organisationer och anläggningar minskar. Att tilldela en konkret siffra till dessa kostnader är inte alltid möjligt, men farorna är för stora.

Förhindra hallucinationer av artificiell intelligens

Här är de proaktiva steg som forskare tar för att förebygga hallucinationer av artificiell intelligens:

Brett utbud av opartiska data

Att samla in träningsdataset som inte innehåller förutfattade meningar eller gynnar en del av samhället framför en annan hjälper den artificiella intelligensen att träna sig själv väl. Offentliga databaser måste rensas och faktakontrolleras för att förhindra att falska data sprids.

Förbehandling av data

Åtgärder som att ta bort flagranta observationer, anonymisera data, reducera funktioner etc. kan hjälpa till att eliminera brus och oönskade mönster från data innan de matas in i systemet.

Utvärdering av modeller

System för artificiell intelligens bör utsättas för ständiga kontroller med hjälp av nya utvärderingsdataset som är noggrant utformade för att identifiera nya hallucinationer.

Övervakning av modeller

För att redogöra för ett oönskat svar från artificiell intelligens kan mekanismer som modellkort eller datautlåtanden göra det möjligt att registrera beteendet hos artificiell intelligens under tidens gång.

Förklarlig artificiell intelligens

Med hjälp av metoder som uppmärksamhetskartor och SHAP-värden kan man förstå varför modellerna kom fram till det svaret samt identifiera enkla analyser baserade på funktioner som är kompatibla med mönster jämfört med slumpmässiga mönster.

Konservativ utplacering

System för artificiell intelligens bör begränsas till specifika domäner och endast användas i begränsad och kontrollerad omfattning med människor som övervakar användningen tills artificiell intelligens visar sig vara säker, tillförlitlig och dubbelt så rättvis i behandlingen som människor.

För att hjälpa artificiell intelligens att fortsätta driva samhälleliga fördelar och förhindra risken för hallucinationsrelaterade skador, bör organisationer konfrontera data- och modellkvalitetsproblem i förväg. Var försiktig och ansvarsfull för att undvika allvarliga förgreningar som kan uppstå från hallucinationer om artificiell intelligens och relaterade felaktigheter.

Kort sagt kan riskerna med hallucinationer om artificiell intelligens kontrolleras om motsvarande strategier för att lindra dem implementeras. För att undvika eventuella negativa resultat krävs dock ihärdig observation från teknikutvecklare och de som påverkar politiska förändringar. Det är först efter att ha gjort sådana gemensamma försök som vi kan utveckla ett artificiellt intelligenssystem som påverkar människor positivt samtidigt som det garanterar deras skydd.

Slutligen har vi sammanställt de vanligaste frågorna och svaren på dem

Vad är hallucinationer med artificiell intelligens?

Med hallucinationer inom artificiell intelligens avses fall där system för artificiell intelligens genererar falsk eller meningslös information, ofta på grund av feltolkning av data eller mönster.

Varför hallucinerar system för artificiell intelligens?

System för artificiell intelligens kan hallucinera på grund av olika faktorer, bland annat överanpassning, bias i träningsdata och hög modellkomplexitet.

Hur vanligt är hallucinationer inom artificiell intelligens?

Hallucinationer kan vara ganska vanliga inom artificiell intelligens, särskilt i stora språkmodeller och generativa verktyg som saknar begränsningar för möjliga resultat.

Kan hallucinationer inom artificiell intelligens förebyggas?

För att förhindra hallucinationer i artificiell intelligens måste man definiera tydliga gränser för modeller för artificiell intelligens med hjälp av filtreringsverktyg och fastställa probabilistiska tröskelvärden.

Vilka är konsekvenserna av hallucinationer som bygger på artificiell intelligens?

Konsekvenserna kan variera från att sprida felaktig information till att orsaka verklig skada, till exempel felaktiga medicinska diagnoser.

Hur påverkar hallucinationer med artificiell intelligens förtroendet för system med artificiell intelligens?

Hallucinationer kan undergräva förtroendet för artificiell intelligens, eftersom de gör det svårt att lita på systemets resultat utan verifiering.

Finns det några kända exempel på hallucinationer inom artificiell intelligens?

Ja, kända exempel är chatbottar som genererar falska akademiska uppsatser eller ger felaktig information i kundtjänstinteraktioner.

Förekommer hallucinationer med artificiell intelligens i både språk- och bildsystem?

Ja, hallucinationer med artificiell intelligens kan förekomma i både språkmodeller och datorvisionssystem.

Vilken roll spelar träningsdata i hallucinationer med artificiell intelligens?

Träningsdata är avgörande – partisk eller icke-representativ data kan leda till hallucinationer som återspeglar dessa partiskhet.

Finns det pågående forskning för att ta itu med hallucinationer av artificiell intelligens?

Ja, det finns betydande forskning som fokuserar på att förstå och mildra hallucinationer av artificiell intelligens för att förbättra tillförlitligheten hos system för artificiell intelligens.