En løsning på problemet med kunstig intelligens i skyggen

Kunstig intelligens (AI) er blandt de mest gennemgribende teknologiske gennembrud og giver en række fordele og muligheder på tværs af mange brancher. Ikke desto mindre kan man ikke ignorere, at der opstår nye problemer, som f.eks. udfordringen med kunstig skyggeintelligens, sideløbende med udviklingen af alle disse nylige innovationer.

Forståelse af problemet med kunstig skyggeintelligens

Hemmelig kunstig intelligens, antager vi, skjult kunstig intelligens, der drives uden gennemsigtighed eller kontrol, er det største problem, der skal løses, for at kunstig intelligens kan bruges på sikre og nyttige måder. Men vi finder ud af, at disse intelligente systemer for det meste opererer i baggrunden og træffer beslutninger, der kontrollerer resultatet og skæbnen for ofrene for systemet uden at få en idé om deres sag. Under dække af kunstig intelligens kan der dukke to former op, såsom useriøse algoritmer, forudindtagede modeller og uautoriserede kunstige intelligensprogrammer.

Kontroversen om kunstig skyggeintelligens næres af mere og mere kraftfuld og tilgængelig software og hardware til kunstig intelligens. Da kunstig intelligens bliver billigere og enklere at implementere i dagligdagen, kan enheder bruge kunstige intelligenssystemer uden at kende deres implikationer eller bekymre sig om etiske forgreninger og juridiske regler.

Implikationerne af problemet med kunstig intelligens i skyggen

Kunstig intelligens med pseudonym magt rejser flere presserende spørgsmål for samfundet, virksomheder og privatpersoner.

Etiske bekymringer

Risikoen ved en forudindtaget behandling som kunstig skyggeintelligens kan føre til endnu mere ulighed. For eksempel kan disse systemer forstærke fordomme eller blive drevet af de samme fordomme, fordi systemerne er bygget på forudindtagede data, eller fordi de ikke har gennemgået tilstrækkelig overvågning og kontrol.

Lovgivningsmæssige risici

Uovervågede og ukontrollerede autonome kunstige intelligenssystemer, der ikke overholder reglerne, kan føre til brud på databeskyttelseskrav, sikkerhed og andre regler, og derfor kan juridiske og økonomiske konsekvenser følge loven.

Skade på omdømme

Eksemplerne på uengageret kunstig intelligens-teknologi, der fejler etisk eller giver skadelige resultater for virksomheder, kan sætte et negativt lys på brandet. Sådanne situationer kan resultere i et tab af forbrugertillid, brandbevidsthed og andet.

Sikkerhedstrusler

En trussel kan opstå, når en enhed med ondsindede hensigter får adgang til et kunstigt intelligenssystem, selv om den ikke har militære eller retshåndhævende hensigter. Sådanne kunstige intelligenssystemer bag uigennemtrængelige mure kan blive en indgang til at angribe kritiske systemer, hvilket kan resultere i brud på datasikkerheden, afsløring af kritisk infrastruktur osv.

Strategier til håndtering af problemet med kunstig skyggeintelligens

Strategier til håndtering af kunstig skyggeintelligens, der sikrer sikker, kompatibel og effektiv kunstig intelligens.

Gennemsigtighed og ansvarlighed

Virksomheder og regeringer bør forpligte sig til at øge gennemsigtigheden og ansvarligheden omkring skabelsen og brugen af applikationer og systemer til kunstig intelligens. Det er tilfældet, fordi det indebærer at etablere mekanismer til at dokumentere kunstig intelligens-algoritmer, datakilder og beslutningsprocesser for at gøre dem sporbare og reviderbare.

Etisk styring af kunstig intelligens

At opbygge stærke etiske rammer for kunstig intelligens kan således være et afgørende skridt til at overvinde nogle af ulemperne ved kunstig skyggeintelligens. Det kræver ikke kun, at man opstiller en klar etisk ramme og standarder, der skal følges, men også at man har en revisions- og tilsynsarkitektur på plads.

Uddannelse og bevidsthed

Udvikling af kunstig intelligens-borgerskab kan opnås ved at øge forståelsen af kunstig intelligens-etik, risici og bedste praksis blandt udviklere, dataforskere og beslutningstagere. Det er den eneste måde at forhindre spredningen af kunstig skyggeintelligens på. Trænings- og vejledningsaktiviteter, workshops og hjælpemidler til uddannelse kan være nøglefaktorer til at sikre kunstig intelligens-etik.

Overholdelse af lovgivning

Organisationer skal garantere overholdelse af de relevante love, regler og standarder vedrørende udvikling og implementering af kunstig intelligens. Det kan være regler for databeskyttelse (som GDPR), privatretlige instrumenter og jurisdiktionelle tilgange samt den nye udvikling af styring af kunstig intelligens.

Samarbejde og partnerskaber

Deltagelse af alle aktører i branchen, lovgivere, den akademiske verden og civilsamfundet vil hjælpe med at være mere effektiv i den fortsatte kamp mod problemet “skygge kunstig intelligens”. Ved at arbejde sammen vil interessenterne få mulighed for at dele bedste praksis, samarbejde om de nuværende standarder og skabe retningslinjer, der vil holde udviklingen af kunstig intelligens så ansvarlig som muligt.

Løbende overvågning og evaluering

En periodisk kontrol af kunstige intelligenssystemers ydeevne, adfærd og implikationer bør være på plads. Denne styringsmekanisme vil gøre det muligt at opdage og løse tilfælde af kunstig skyggeintelligens. Organisationer er nødt til at konstruere måder til løbende overvågning, feedback og evaluering af ydeevne for at være sikre på, at kunstige intelligensværktøjer fungerer etisk og funktionelt.