Hvorfor hallusinerer systemer med kunstig intelligens
I dag brukes kunstig intelligens (AI) i form av virtuelle assistenter, smarthusutstyr, diagnostikk i helsevesenet og selvkjørende biler. Likevel oppstår det et problem med utviklingen av denne kritiske teknologien, fordi den forårsaker det som omtales som «kunstig intelligens-hallusinasjoner».
Hvorfor hallusinerer systemer med kunstig intelligens?
Enkelt sagt refererer kunstig intelligens-hallusinasjoner til tilfeller der kunstig intelligens-systemer genererer eller utleder feil informasjon som ikke eksisterte under innsamlingen av treningsdata. På den annen side kan manglende evne til å løse hallusinasjoner med kunstig intelligens føre til problemer som spredning av usannheter og forutinntatte vurderinger, noe som kan føre til både økonomiske og sikkerhetsmessige problemer. Vi vil forklare hvorfor kunstig intelligens-systemer hallusinerer, årsakene til det og hvordan man kan forebygge det.
Hallusinasjoner i kunstige intelligenssystemer kan oppstå når en stor språkmodell er i stand til å observere funksjoner eller objekter som aldri har blitt sett eller eksisterer i det hele tatt. Dette fører til at den genererer feilaktig informasjon som ikke gir mening i det virkelige liv, men som i noen tilfeller er basert på mønstre/objekter som den selv har oppfattet.
Med andre ord hallusinerer kunstig intelligens-systemer ved at modeller kommer med falske utsagn eller baserer seg på trivielle mønstre og fordommer i treningsdataene for å produsere eller forsvare kontroversielle svar, men dette skjer på et høyere nivå av kompleksitet.
Årsaker til hallusinasjoner i kunstig intelligens
Det er noen hovedårsaker til at kunstig intelligens-systemer hallusinerer:
Datafeil
Manglende data og/eller ufullstendige eller partiske/fordomsfulle treningsdatautvalg blir brukt av de fleste modeller fordi den kunstige intelligensen ikke har noen mulighet til å bedømme om de er rettferdige eller fordomsfulle.
Det har for eksempel forekommet at algoritmer for ansiktsgjenkjenning ikke har vært i stand til å gjenkjenne ikke-hvite ansikter – noe som har blitt tilskrevet opplæringsdatasett som er satt sammen på grunnlag av slike skjevheter.
Overtilpasning
Overdreven informasjon i databasen er en annen grunn til at kunstig intelligens-systemer hallusinerer. Noen av problemene med de identifiserte nevrale nettverkene er at når de lærer av mønstre i dette begrensede datasettet, kan det hende at de «husker» eller «overtilpasser» for støyende mønstre. Dette gjør det mer sannsynlig at de hallusinerer når de utsettes for andre inndata enn det de møtte under treningen.
Akkumulering av feil
Små feil eller støy i inngangsdataene blir forstørret i den hierarkisk bearbeidede formen, og i store transformatormodeller med noen milliarder parametere kan det for eksempel føre til at det genereres forvrengte eller til og med fabrikkerte utdata.
Tilbakemeldingssløyfer
Problemet med hallusinasjoner kan til og med forsterke seg selv i selvveiledede systemer hvis det ikke korrigeres. For eksempel kan en kunstig intelligens lage et bilde basert på et nevralt nettverk, og en deepfake kan få en annen kunstig intelligens til å tro at informasjonen er ekte.
Mulige skadevirkninger av hallusinasjoner med kunstig intelligens
Hallusinasjoner fra kunstig intelligens byr på alvorlige utfordringer. Her er noen av de følgende tilfellene vi kan forvente hvis vi ikke tar tak i dem:
Feilinformasjon
Mangel på sannferdighet kombinert med den kunstige intelligensens evne til å forfalske data betyr at falsk statistikk og feilinformasjon kan gå viralt og forvrenge folks evne til å finne pålitelige data. Dette er særlig bekymringsfullt hvis systemene brukes i journalistikk, utdanning eller offentlig politikkutforming.
Brudd på personvernet
Sensitive private data om enkeltpersoner som aldri har blitt observert, kan krenke personvernet og svekke tilliten hvis slike systemer brukes til tilsvarende oppgaver, for eksempel i helsevesenet, politiet osv.
Skader på marginaliserte grupper
Som vi har nevnt tidligere, er det grunn til å tro at seleksjonsskjevheter i datasett for kunstig intelligens kan diskriminere sosialt vanskeligstilte grupper og gjøre sosial rettferdighet til et enda større problem.
Farer for sikkerheten
Hallusinasjoner kunstig intelligens har feilinformasjon om notatene eller guidene på selvkjørende biler eller medisinsk diagnostisk apparatur, noe som kan føre til ulykker, skader eller feil medisinske beslutninger fordi slike kunstige intelligenssystemer er avhengige av ufullkommen informasjon.
Økonomiske kostnader
Mangel på innovasjoner og vekst som følge av bruk av hallusinerende kunstig intelligens for flere fasiliteter og tjenesteleveranser kan føre til tap av kundetillit samt en reduksjon av verdien av tilknyttede organisasjoner og fasiliteter. Det er ikke alltid mulig å tallfeste disse kostnadene, men farene er for store.
Forebygging av hallusinasjoner med kunstig intelligens
Her er de proaktive tiltakene forskere kan ta for å forebygge hallusinasjoner fra kunstig intelligens:
Bredt utvalg av objektive data
Ved å samle inn treningsdatasett som ikke inneholder fordommer eller favoriserer én samfunnsgruppe fremfor en annen, kan den kunstige intelligensen trene seg opp på en god måte. Offentlige databaser må renses og faktasjekkes for å hindre at falske data sprer seg.
Forbehandling av data
Tiltak som fjerning av oppsiktsvekkende observasjoner, anonymisering av data, funksjonsreduksjon osv. kan bidra til å eliminere støy og uønskede mønstre fra dataene før de mates inn i systemet.
Evaluering av modeller
Systemer for kunstig intelligens bør kontinuerlig kontrolleres ved hjelp av nye evalueringsdatasett som er nøye utformet for å identifisere nye hallusinasjoner.
Modellovervåking
For å gjøre rede for uønsket respons fra kunstig intelligens kan mekanismer som modellkort eller datautsagn gjøre det mulig å registrere den kunstige intelligensens atferd over tid.
Forklarbar kunstig intelligens
Ved hjelp av metoder som oppmerksomhetskart og SHAP-verdier kan man forstå hvorfor modellene kom frem til den responsen, samt identifisere enkle analyser basert på egenskaper som er kompatible med mønstre sammenlignet med tilfeldige mønstre.
Konservativ utplassering
Kunstig intelligens bør begrenses til spesifikke domener og kun brukes i begrenset og kontrollert omfang, med mennesker som overvåker bruken inntil kunstig intelligens viser seg å være trygg, pålitelig og dobbelt så rettferdig som mennesker.
For at kunstig intelligens skal kunne fortsette å skape samfunnsnytte og forhindre faren for hallusinasjonsrelaterte skader, bør organisasjoner konfrontere problemer med data- og modellkvalitet på forhånd. Vær forsiktig og ansvarlig når det gjelder å unngå alvorlige konsekvenser som kan oppstå som følge av hallusinasjoner om kunstig intelligens og relaterte feilslutninger.
Kort sagt kan risikoen for hallusinasjoner knyttet til kunstig intelligens kontrolleres hvis man implementerer tilsvarende strategier for å redusere den. For å unngå mulige negative konsekvenser kreves det imidlertid vedvarende observasjon fra teknologiutviklere og de som påvirker politiske endringer. Det er først når vi har gjort slike felles forsøk, at vi kan utvikle et kunstig intelligenssystem som har en positiv innvirkning på mennesker, samtidig som det garanterer deres beskyttelse.
Til slutt har vi samlet de vanligste spørsmålene og svarene på dem
Hva er hallusinasjoner med kunstig intelligens?
Hallusinasjoner med kunstig intelligens er tilfeller der kunstig intelligens-systemer genererer falsk eller meningsløs informasjon, ofte på grunn av feiltolkning av data eller mønstre.
Hvorfor hallusinerer kunstig intelligens-systemer?
Kunstig intelligens-systemer kan hallusinere på grunn av ulike faktorer, blant annet overtilpasning, skjevheter i treningsdata og høy modellkompleksitet.
Hvor vanlig er hallusinasjoner i kunstig intelligens?
Hallusinasjoner kan være ganske vanlig i kunstig intelligens, spesielt i store språkmodeller og generative verktøy som mangler begrensninger på mulige utfall.
Kan hallusinasjoner i kunstig intelligens forebygges?
For å forhindre hallusinasjoner i kunstig intelligens må man definere klare grenser for kunstig intelligens-modeller ved hjelp av filtreringsverktøy og sette sannsynlighetsgrenser.
Hva er konsekvensene av hallusinasjoner med kunstig intelligens?
Konsekvensene kan være alt fra å spre feilinformasjon til å forårsake skade i den virkelige verden, for eksempel feilaktige medisinske diagnoser.
Hvordan påvirker hallusinasjoner om kunstig intelligens tilliten til kunstig intelligens-systemer?
Hallusinasjoner kan undergrave tilliten til kunstig intelligens, ettersom de gjør det vanskelig å stole på systemets resultater uten verifisering.
Finnes det noen kjente eksempler på hallusinasjoner fra kunstig intelligens?
Ja, kjente eksempler er chatboter som genererer falske akademiske artikler eller gir feil informasjon i kundeserviceinteraksjoner.
Forekommer hallusinasjoner med kunstig intelligens i både språk- og bildesystemer?
Ja, hallusinasjoner med kunstig intelligens kan forekomme i både språkmodeller og datasynssystemer.
Hvilken rolle spiller opplæringsdata for hallusinasjoner i kunstig intelligens?
Treningsdata er avgjørende – skjeve eller ikke-representative data kan føre til hallusinasjoner som gjenspeiler disse skjevhetene.
Pågår det forskning på hallusinasjoner i kunstig intelligens?
Ja, det foregår mye forskning med fokus på å forstå og redusere hallusinasjoner i kunstig intelligens for å forbedre påliteligheten til kunstig intelligens-systemer.