Dingen over kunstmatige intelligentie die de experts je niet vertellen

Kunstmatige intelligentie (AI) is een onafscheidelijk deel van ons leven geworden. Dit blijkt bijvoorbeeld uit de mogelijkheden van virtuele assistenten of bestuurderloze voertuigen die de weg op gaan. Hoewel experts meestal wijzen op de voordelen van kunstmatige intelligentie, zijn ze niet altijd bereid om de problemen van de technologie te noemen. Ontdek deze dingen in kunstmatige intelligentie die kunstmatige intelligentie-experts je niet vertellen.

Kunstmatige intelligentie is niet onfeilbaar

Hoewel kunstmatige intelligentiesystemen cijfers vele malen nauwkeuriger kunnen maken, zijn ze niet feilloos. Modellen voor kunstmatige intelligentie leren van enorme datasets en hun prestaties hangen nauw samen met de hoeveelheid en diversiteit van deze gegevens. De vooringenomenheid in de trainingsgegevens kan evengoed worden vertaald naar de kunstmatige intelligentie-uitkomsten, die ook menselijke fouten kunnen imiteren.

Privacy van gegevens

Kunstmatige intelligentiesystemen moeten gevoed worden met een enorme hoeveelheid gegevens om efficiënt te kunnen werken. Hoewel de gepresenteerde gegevens vaak geanonimiseerd zijn, zijn er nog steeds problemen met betrekking tot privacy en gegevensbeveiliging. Onbedoeld kunnen kunstmatige intelligentiesystemen de gegevensprivacy schenden door gevoelige informatie bloot te leggen, wat weer leidt tot een gebrek aan anonimiteit.

Verdringing van banen

Aangezien automatisering een van de belangrijkste kwesties is met betrekking tot kunstmatige intelligentie, zullen veel taken die oorspronkelijk door mensen werden uitgevoerd niet langer nodig zijn. Kunstmatige intelligentie kan een bron zijn van aanzienlijke productiviteits- en efficiëntiewinst, maar kan ook een bedreiging vormen voor bestaande functies. In sommige industrieën en functies is een hogere mate van automatisering mogelijk dan men zich zou kunnen voorstellen, en experts kunnen deze dimensie onbedoeld en vaak over het hoofd zien.

Ethische overwegingen

Kunstmatige intelligentie brengt een stroom van ethische kwesties op gang, die beginnen met zorgen over vooroordelen en eerlijkheid en eindigen met het probleem van kunstmatige intelligentie in wapensystemen. Deskundigen betrekken deze ethische kwesties meestal niet direct, tenzij ze worden genoemd bij de ontwikkeling of inzet van technologieën voor kunstmatige intelligentie.

Het probleem van de zwarte doos

Veel kunstmatige intelligentiesystemen hebben een niveau van complexiteit bereikt, waardoor zelfs de makers ervan niet weten welke precieze gegevenssets het systeem gebruikt om dergelijke beslissingen te nemen. Het “black box” syndroom is het grootste vraagteken met betrekking tot het vertrouwen in kunstmatige intelligentiesystemen, omdat er gevallen kunnen zijn waarin mensen niet in staat zijn om te begrijpen hoe en waarom een beslissing wordt genomen.

Kwetsbaarheden in de beveiliging

Kunstmatige intelligentie systemen zullen niet het gevoel geven dat ze onafhankelijk zijn van beveiligingslekken. Wat echter zorgwekkender is, is dat kunstmatige intelligentie een hulpmiddel kan zijn om toegang te krijgen tot andere systemen die praktisch onbeschermd zijn, waardoor ze een bedreiging vormen voor kwaadwillende actoren. De beperkte hoeveelheid informatie die experts kunnen delen over deze beveiligingsrisico’s valt niet te ontkennen – ze moeten echter zorgvuldig worden overwogen naarmate kunstmatige intelligentie zich ontwikkelt en wordt ingezet.

De noodzaak van menselijk toezicht

Machines met kunstmatige intelligentie kunnen meerdere taken zelfstandig uitvoeren, maar ze moeten handmatig worden gecontroleerd door mensen. De aanwezigheid van de mens is noodzakelijk als het gaat om het trainen en onderhouden van kunstmatige intelligentiesystemen, ingrijpen wanneer een kunstmatig intelligentiesysteem gebreken vertoont of het afhandelen van scenario’s waarvoor het nooit is aangeleerd.

Milieu-impact

Het trainen van modellen voor kunstmatige intelligentie kost veel CPU-kracht, wat als belangrijkste element de schade aan het milieu veel groter kan maken. Hoewel de ecologische voetafdruk van kunstmatige intelligentie meestal een verwaarloosde factor is, is het van cruciaal belang om er rekening mee te houden als kunstmatige intelligentie technologie wordt ontwikkeld en ingezet, omdat dit een belangrijke overweging is.

Het potentieel voor misbruik

Kunstmatige intelligentie is doordrenkt met ultieme kracht die potentieel kan worden gebruikt voor zowel positieve als negatieve dingen. Het punt is dat soms experts die het heilzame gebruik van kunstmatige intelligentie specificeren, ons er misschien niet altijd op hebben gewezen dat kunstmatige intelligentie voor de verkeerde doeleinden kan worden gebruikt. Mensen kunnen gemonitord en geïdentificeerd worden via kunstmatige intelligentie, en kunstmatige intelligentie kan gebruik maken van deepfakes en verkeerde informatie, en dat zijn allemaal dingen die schade kunnen toebrengen aan het individu en de samenleving.

De grenzen van kunstmatige intelligentie

Ondanks het bereiken van een hoger niveau van vooruitgang, heeft kunstmatige intelligentie nog steeds gebreken. Kunstmatige intelligentiesystemen voeren een bepaalde opdracht op bewonderenswaardige wijze uit, maar bij sommige stuiten ze op uitdagingen. Zelfs experts kunnen de neiging hebben om deze tekortkomingen over het hoofd te zien of te ondermijnen.