Waarom laten ze kunstmatige intelligentiesystemen hallucineren

Vandaag de dag is kunstmatige intelligentie (AI) actief in de vorm van virtuele assistenten, slimme thuisapparaten, diagnostiek in de gezondheidszorg en zelfrijdende auto’s. Toch ontstaat er een probleem met de ontwikkeling van deze cruciale technologie, omdat het leidt tot wat “hallucinaties van kunstmatige intelligentie” wordt genoemd.

Waarom hallucineren kunstmatige intelligentiesystemen?

Eenvoudig gezegd verwijst kunstmatige intelligentie-hallucinatie naar gevallen waarin kunstmatige intelligentiesystemen onjuiste informatie genereren of afleiden die niet bestond tijdens het verzamelen van hun trainingsgegevens. Aan de andere kant kan het niet oplossen van kunstmatige intelligentie hallucinaties leiden tot problemen zoals het verspreiden van onwaarheden en het maken van vooringenomen oordelen, wat leidt tot zowel economische als veiligheidsproblemen. We zullen uitleggen waarom kunstmatige intelligentiesystemen hallucineren, wat de oorzaken zijn en hoe ze voorkomen kunnen worden.

Kunstmatige intelligentiesystemen hallucineren waarschijnlijk wanneer een groot taalmodel in staat is om eigenschappen of objecten waar te nemen die nooit gezien zijn of helemaal niet bestaan. Hierdoor genereert het onjuiste outputinformatie die in het echte leven geen steek houdt, maar in sommige gevallen gebaseerd is op patronen/objecten die het zelf waarneemt.

Met andere woorden, kunstmatige intelligentiesystemen hallucineren als modellen onjuiste uitspraken doen of afhankelijk zijn van triviale patronen en vooroordelen in de trainingsgegevens om controversiële antwoorden te produceren of te verdedigen, maar dit gebeurt op een hoger niveau van complexiteit.

Oorzaken van hallucinaties door kunstmatige intelligentie

Er zijn een paar belangrijke redenen waarom kunstmatige intelligentiesystemen hallucineren:

Vertekeningen in gegevens

Ontbrekende gegevens en/of steekproeven van trainingsgegevens die onvolledig zijn of vooringenomen/vooringenomen elementen bevatten, worden door de meeste modellen naar voren gebracht omdat de kunstmatige intelligentie geen manier heeft om de eerlijkheid of vooringenomenheid in kwestie te beoordelen.

Het is bijvoorbeeld voorgekomen dat gezichtsherkenningsalgoritmen niet in staat waren om niet-blanke gezichten te herkennen – dit werd toegeschreven aan trainingsdatasets die waren samengesteld op basis van dergelijke vooroordelen.

Overfitting

Overmatige informatie in de database is een andere reden waarom kunstmatige intelligentiesystemen hallucineren. Enkele van de problemen met betrekking tot de geïdentificeerde neurale netwerken zijn dat ze, terwijl ze leren van patronen in deze beperkte dataset, te luidruchtige patronen eerder ‘onthouden’ of ‘overpassen’. Hierdoor is de kans groter dat ze gaan hallucineren wanneer ze worden blootgesteld aan andere inputs dan ze tijdens de training hebben ervaren.

Fout accumulatie

Kleine fouten of ruis in de invoergegevens worden uitvergroot in hun hiërarchisch verwerkte vorm, en in grote transformatormodellen met bijvoorbeeld een paar miljard parameters kan dit leiden tot het genereren van vervormde of zelfs verzonnen uitvoer.

Terugkoppellussen

Het probleem van hallucinaties kan zichzelf zelfs verergeren in zelfgestuurde systemen als het niet gecorrigeerd wordt. Een kunstmatige intelligentie kan bijvoorbeeld een foto maken op basis van een neuraal netwerk, en een deepfake kan een andere kunstmatige intelligentie laten geloven dat de informatie echt is.

Mogelijke schade door hallucinaties met kunstmatige intelligentie

Kunstmatige intelligentie-hallucinaties vormen een serieuze uitdaging. Hier zijn de volgende gevallen die we kunnen verwachten als er niets aan wordt gedaan:

Desinformatie

Gebrek aan waarheidsgetrouwheid in combinatie met de vervalsingsaard van bot kunstmatige intelligentie betekent dat nepstatistieken en verkeerde informatie viraal kunnen gaan en het vermogen van mensen om betrouwbare gegevens te vinden kunnen verstoren. Dit is vooral zorgwekkend als de systemen worden gebruikt in de journalistiek, het onderwijs of bij het maken van overheidsbeleid.

Schendingen van privacy

Gevoelige privégegevens over individuen die nooit zijn geobserveerd, kunnen de privacy ernstig schenden en het vertrouwen aantasten als dergelijke systemen worden toegepast op de overeenkomstige taken, zoals gezondheidszorg, wetshandhaving, enz.

Schade aan gemarginaliseerde groepen

Zoals al eerder is opgemerkt, is het goed bekend dat in datasets van kunstmatige intelligentie selectievooroordelen sociaal achtergestelde groepen discrimineren en sociale rechtvaardigheid tot een nog groter probleem maken.

Veiligheidsrisico’s

Hallucinaties kunstmatige intelligentie heeft verkeerde informatie over de aantekeningen of gidsen op zelfrijdende auto’s of medische diagnostische apparatuur, wat kan leiden tot ongelukken, verwondingen of verkeerde medische beslissingen omdat dergelijke kunstmatige intelligentiesystemen afhankelijk zijn van imperfecte informatie.

Economische kosten

Gebrek aan innovaties en groei door het gebruik van hallucinerende kunstmatige intelligentie voor meerdere faciliteiten en dienstverlening kan leiden tot verlies van vertrouwen van klanten en een vermindering van de waarde van bijbehorende organisaties en faciliteiten. Het is niet altijd mogelijk om deze kosten tastbaar te maken, maar de gevaren zijn te groot.

Kunstmatige intelligentie hallucinaties voorkomen

Hier zijn de proactieve stappen die onderzoekers nemen om te voorkomen dat kunstmatige intelligentie hallucineert:

Breed scala aan onbevooroordeelde gegevens

Het verzamelen van trainingsdatasets die geen vooroordelen bevatten of het ene deel van de samenleving bevoordelen ten opzichte van het andere, helpt de kunstmatige intelligentie zichzelf goed te trainen. Openbare databases moeten worden opgeschoond en op feiten gecontroleerd om te voorkomen dat nepgegevens zich verspreiden.

Gegevens voorbewerken

Maatregelen zoals het verwijderen van ongewenste waarnemingen, anonimiseren van gegevens, verminderen van eigenschappen enz. kunnen helpen bij het verwijderen van ruis en ongewenste patronen uit gegevens voordat ze aan het systeem worden toegevoerd.

Modelevaluatie

Kunstmatige intelligentiesystemen moeten voortdurend worden gecontroleerd met behulp van nieuwe evaluatiedatasets die zorgvuldig zijn ontworpen voor het identificeren van nieuwe hallucinaties.

Modelcontrole

Om de ongewenste reactie van een kunstmatige intelligentie te verklaren, kunnen mechanismen zoals modelkaarten of gegevensverklaringen het gedrag van de kunstmatige intelligentie in de loop van de tijd registreren.

Verklaarbare kunstmatige intelligentie

Door gebruik te maken van methodologieën zoals aandachtskaarten en SHAP-waarden, kan men begrijpen waarom de modellen tot die reactie kwamen en eenvoudige analyses uitvoeren op basis van kenmerken die compatibel zijn met patronen in vergelijking met willekeurige patronen.

Conservatieve inzet

Systemen voor kunstmatige intelligentie moeten worden beperkt tot specifieke domeinen en slechts beperkt en gecontroleerd worden gebruikt, waarbij mensen toezicht houden op het gebruik totdat kunstmatige intelligentie bewijst veilig en betrouwbaar te zijn en twee keer zo eerlijk in de omgang met mensen.

Om ervoor te zorgen dat kunstmatige intelligentie maatschappelijke voordelen blijft opleveren en het gevaar van hallucinatie-gerelateerde schade wordt voorkomen, moeten organisaties problemen met de kwaliteit van gegevens en modellen van tevoren aanpakken. Wees voorzichtig en verantwoordelijk in het vermijden van ernstige vertakkingen die kunnen voortkomen uit kunstmatige intelligentie hallucinaties en gerelateerde drogredenen.

Kortom, de risico’s van hallucinaties door kunstmatige intelligentie kunnen worden beheerst als er strategieën worden geïmplementeerd om deze risico’s te verminderen. Niettemin vraagt het vermijden van mogelijke negatieve uitkomsten om aanhoudende observatie van technologieontwikkelaars en degenen die beleidsveranderingen beïnvloeden. Alleen na dergelijke gezamenlijke pogingen kunnen we een kunstmatig intelligentiesysteem ontwikkelen dat mensen positief beïnvloedt en tegelijkertijd hun bescherming garandeert.

Tot slot hebben we de meest gestelde vragen en hun antwoorden voor je opgesteld

Wat zijn kunstmatige intelligentie hallucinaties?

Kunstmatige intelligentie hallucinaties verwijzen naar gevallen waarin kunstmatige intelligentiesystemen valse of onzinnige informatie genereren, vaak als gevolg van een verkeerde interpretatie van gegevens of patronen.

Waarom hallucineren kunstmatige intelligentiesystemen?

Kunstmatige intelligentiesystemen kunnen hallucineren door verschillende factoren, waaronder overfitting, vertekeningen in de trainingsgegevens en een hoge complexiteit van het model.

Hoe vaak komen hallucinaties bij kunstmatige intelligentie voor?

Hallucinaties komen vaak voor bij kunstmatige intelligentie, vooral bij grote taalmodellen en generatieve tools die geen beperkingen hebben op mogelijke uitkomsten.

Kunnen hallucinaties in kunstmatige intelligentie voorkomen worden?

Om hallucinaties van kunstmatige intelligentie te voorkomen, moeten duidelijke grenzen worden bepaald voor modellen van kunstmatige intelligentie met behulp van filtertools en het instellen van probabilistische drempels.

Wat zijn de gevolgen van kunstmatige intelligentie hallucinaties?

De gevolgen kunnen variëren van het verspreiden van verkeerde informatie tot het veroorzaken van echte schade, zoals onjuiste medische diagnoses.

Hoe beïnvloeden hallucinaties in kunstmatige intelligentie het vertrouwen in kunstmatige intelligentiesystemen?

Hallucinaties kunnen het vertrouwen in kunstmatige intelligentie ondermijnen, omdat ze het moeilijk maken om zonder verificatie te vertrouwen op de output van het systeem.

Zijn er bekende voorbeelden van hallucinaties in kunstmatige intelligentie?

Ja, bekende voorbeelden zijn chatbots die vervalste academische papers genereren of onjuiste informatie geven in interacties met klantenservice.

Komen kunstmatige intelligentie hallucinaties voor bij zowel taal- als beeldsystemen?

Ja, kunstmatige intelligentie hallucinaties kunnen voorkomen in zowel taalmodellen als computer vision systemen.

Welke rol spelen trainingsgegevens bij kunstmatige intelligentie hallucinaties?

Trainingsgegevens zijn cruciaal – vertekende of niet-representatieve gegevens kunnen leiden tot hallucinaties die deze vertekeningen weerspiegelen.

Is er lopend onderzoek naar kunstmatige intelligentie hallucinaties?

Ja, er wordt veel onderzoek gedaan naar het begrijpen en verminderen van hallucinaties van kunstmatige intelligentie om de betrouwbaarheid van kunstmatige intelligentiesystemen te verbeteren.