Hvorfor hallucinerer systemer med kunstig intelligens

I dag fungerer kunstig intelligens (AI) i form af virtuelle assistenter, smart home-enheder, sundhedsdiagnostik og selvkørende biler. Ikke desto mindre opstår der et problem med udviklingen af denne kritiske teknologi, fordi den forårsager det, der kaldes »kunstig intelligens-hallucinationer«.

Hvorfor får de kunstige intelligenssystemer til at hallucinere?

Enkelt sagt henviser hallucinationer med kunstig intelligens til tilfælde, hvor systemer med kunstig intelligens genererer eller udleder forkerte oplysninger, som ikke fandtes under deres indsamling af træningsdata. På den anden side kan manglende løsning af hallucinationer med kunstig intelligens resultere i problemer som spredning af usandheder og forudindtagede vurderinger, hvilket fører til både økonomiske og sikkerhedsmæssige bekymringer. Vi vil forklare, hvorfor systemer med kunstig intelligens hallucinerer, hvad årsagerne er, og hvordan det kan forebygges.

Kunstige intelligenssystemer hallucinerer sandsynligvis, når en stor sprogmodel er i stand til at observere funktioner eller objekter, som aldrig er blevet set eller overhovedet eksisterer. Det får den til at generere forkerte outputoplysninger, som ikke giver mening i det virkelige liv, men i nogle tilfælde er de baseret på mønstre/objekter, som den selv har opfattet.

Med andre ord hallucinerer systemer med kunstig intelligens, når modeller kommer med falske udsagn eller er afhængige af trivielle mønstre og fordomme i træningsdataene for at producere eller forsvare kontroversielle svar, men det sker på et højere kompleksitetsniveau.

Årsager til hallucinationer med kunstig intelligens

Der er nogle få hovedårsager til, at systemer med kunstig intelligens hallucinerer:

Skævheder i data

Manglende data og/eller træningsdata, der er ufuldstændige eller indeholder forudindtagede/fordomsfulde elementer, fremføres af de fleste modeller, fordi den kunstige intelligens ikke har nogen måde at bedømme den involverede retfærdighed eller fordom på.

Der har f.eks. været tilfælde, hvor ansigtsgenkendelsesalgoritmer ikke har været i stand til at genkende ikke-hvide ansigter – det er blevet tilskrevet træningsdatasæt, der blev sammensat på baggrund af sådanne fordomme.

Overtilpasning

Overdreven information i databasen er en anden grund til, at systemer med kunstig intelligens hallucinerer. Nogle af problemerne med de identificerede neurale netværk er, at når de lærer af mønstre i dette begrænsede datasæt, kan de snarere ‘huske’ eller ‘overtilpasse’ for støjende mønstre. Det gør dem til gengæld mere tilbøjelige til at hallucinere, når de udsættes for input, der er anderledes end det, de mødte under træningen.

Akkumulering af fejl

Små fejl eller støj i inputdataene vil blive forstørret i deres hierarkisk behandlede form, og i store transformatormodeller med et par milliarder parametre kan det f.eks. føre til generering af forvrængede eller endda fabrikerede outputs.

Feedback-sløjfer

Problemet med hallucinationer kan endda forværre sig selv i selvstyrende systemer, hvis det ikke korrigeres. For eksempel kan en kunstig intelligens skabe et foto baseret på et neuralt netværk, og en deepfake kan få en anden kunstig intelligens til at tro, at informationen er ægte.

Mulige skader som følge af hallucinationer med kunstig intelligens

Hallucinationer med kunstig intelligens udgør en alvorlig udfordring. Her er følgende tilfælde, som vi kan forvente, hvis vi ikke tager hånd om dem:

Misinformation

Manglende sandfærdighed kombineret med den kunstige intelligens’ evne til at forfalske betyder, at falske statistikker og misinformation kan gå viralt og forvrænge folks evne til at finde pålidelige data. Dette er meget bekymrende, hvis systemerne bruges inden for journalistik, uddannelse eller offentlig politik.

Krænkelse af privatlivets fred

Følsomme private data om enkeltpersoner, som aldrig er blevet observeret, kan i høj grad krænke privatlivets fred og undergrave tilliden, hvis sådanne systemer anvendes til tilsvarende opgaver, f.eks. inden for sundhedspleje, retshåndhævelse osv.

Skader på marginaliserede grupper

Som det er blevet bemærket tidligere, siges det, at udvælgelsesforstyrrelser i datasæt med kunstig intelligens diskriminerer socialt dårligt stillede grupper og gør social retfærdighed til et endnu større problem.

Sikkerhedsrisici

Hallucinationer kunstig intelligens har misinformation om noter eller vejledninger på selvkørende biler eller medicinsk diagnoseapparat, hvilket kan føre til ulykker, skader eller forkerte medicinske beslutninger, fordi sådanne kunstige intelligenssystemer er afhængige af ufuldkommen information.

Økonomiske omkostninger

Manglende innovation og vækst ved brug af hallucinerende kunstig intelligens til flere faciliteter og serviceleverancer kan føre til tab af kundetillid samt en reduktion af værdien af tilknyttede organisationer og faciliteter. Det er ikke altid muligt at sætte konkrete tal på disse omkostninger, men farerne er for store.

Forebyggelse af hallucinationer med kunstig intelligens

Her er de proaktive skridt, som forskere tager for at forebygge hallucinationer fra kunstig intelligens:

Bred vifte af upartiske data

Indsamling af træningsdatasæt, der ikke indeholder fordomme eller favoriserer en samfundsgruppe frem for en anden, hjælper den kunstige intelligens med at træne sig selv godt. Offentlige databaser skal renses og faktatjekkes for at forhindre, at falske data spredes.

Forbehandling af data

Foranstaltninger som fjernelse af uhensigtsmæssige observationer, dataanonymisering, funktionsreduktion osv. kan hjælpe med at fjerne støj og uønskede mønstre fra data, før de sendes til systemet.

Evaluering af modeller

Systemer med kunstig intelligens bør konstant kontrolleres ved hjælp af nye evalueringsdatasæt, der er omhyggeligt designet til at identificere nye hallucinationer.

Overvågning af modeller

For at redegøre for en uønsket reaktion fra kunstig intelligens kan mekanismer som modelkort eller dataopgørelser gøre det muligt at registrere den kunstige intelligens’ adfærd i løbet af tiden.

Forklarlig kunstig intelligens

Ved hjælp af metoder som opmærksomhedskort og SHAP-værdier kan man forstå, hvorfor modellerne kom frem til den pågældende reaktion, samt identificere enkle analyser baseret på funktioner, der er kompatible med mønstre sammenlignet med tilfældige mønstre.

Konservativ udrulning

Systemer med kunstig intelligens bør begrænses til specifikke domæner og kun anvendes i begrænset og kontrolleret omfang med mennesker, der overvåger brugen, indtil kunstig intelligens viser sig at være sikker, pålidelig og dobbelt så retfærdig i behandlingen som mennesker.

For at hjælpe kunstig intelligens med at fortsætte med at skabe samfundsmæssige fordele og forhindre faren for hallucinationsrelaterede skader, bør organisationer konfrontere data- og modelkvalitetsproblemer på forhånd. Vær forsigtig og ansvarlig for at undgå alvorlige konsekvenser, der kan opstå som følge af hallucinationer om kunstig intelligens og relaterede fejlslutninger.

Kort sagt kan risikoen for hallucinationer med kunstig intelligens kontrolleres, hvis der implementeres tilsvarende strategier for at afhjælpe dem. Ikke desto mindre kræver det vedvarende observation fra teknologiudviklere og dem, der påvirker politiske ændringer, for at undgå mulige negative resultater. Det er først, når vi har gjort sådanne fælles forsøg, at vi kan udvikle et kunstigt intelligenssystem, der påvirker mennesker positivt, samtidig med at det garanterer deres beskyttelse.

Endelig har vi forberedt de hyppigst stillede spørgsmål og deres svar til dig

Hvad er hallucinationer med kunstig intelligens?

Hallucinationer med kunstig intelligens refererer til tilfælde, hvor systemer med kunstig intelligens genererer falsk eller meningsløs information, ofte på grund af fejlfortolkning af data eller mønstre.

Hvorfor hallucinerer systemer med kunstig intelligens?

Kunstige intelligenssystemer kan hallucinere på grund af forskellige faktorer, herunder overtilpasning, bias i træningsdata og høj modelkompleksitet.

Hvor almindelige er hallucinationer med kunstig intelligens?

Hallucinationer kan være ret almindelige i kunstig intelligens, især i store sprogmodeller og generative værktøjer, der mangler begrænsninger for mulige resultater.

Kan hallucinationer i kunstig intelligens forhindres?

Forebyggelse af hallucinationer med kunstig intelligens indebærer at definere klare grænser for modeller med kunstig intelligens ved hjælp af filtreringsværktøjer og fastsættelse af sandsynlighedstærskler.

Hvad er konsekvenserne af hallucinationer med kunstig intelligens?

Konsekvenserne kan være alt fra at sprede misinformation til at forårsage skade i den virkelige verden, f.eks. forkerte medicinske diagnoser.

Hvordan påvirker hallucinationer med kunstig intelligens tilliden til systemer med kunstig intelligens?

Hallucinationer kan underminere tilliden til kunstig intelligens, da de gør det svært at stole på systemets output uden verifikation.

Er der nogen berømte eksempler på hallucinationer med kunstig intelligens?

Ja, bemærkelsesværdige eksempler omfatter chatbots, der genererer falske akademiske artikler eller giver forkerte oplysninger i kundeserviceinteraktioner.

Forekommer hallucinationer med kunstig intelligens i både sprog- og billedsystemer?

Ja, hallucinationer med kunstig intelligens kan forekomme i både sprogmodeller og computersynssystemer.

Hvilken rolle spiller træningsdata i hallucinationer med kunstig intelligens?

Træningsdata er afgørende – biased eller ikke-repræsentative data kan føre til hallucinationer, der afspejler disse bias.

Er der igangværende forskning i hallucinationer med kunstig intelligens?

Ja, der er betydelig forskning med fokus på at forstå og afbøde hallucinationer i kunstig intelligens for at forbedre pålideligheden af systemer med kunstig intelligens.