En løsning på problemet med kunstig intelligens i skyggen

Kunstig intelligens (AI) er blant de største teknologiske gjennombruddene og gir en rekke fordeler og muligheter i mange bransjer. Likevel kan man ikke se bort fra at det dukker opp nye problemer, som for eksempel utfordringen med kunstig skyggeintelligens, parallelt med utviklingen av alle disse nyvinningene.

Forstå problemet med skjult kunstig intelligens

Vi antar at hemmelig kunstig intelligens, dvs. kunstig intelligens som brukes uten innsyn eller kontroll, er det største problemet som må løses for at kunstig intelligens skal kunne brukes på en trygg og nyttig måte. Vi ser imidlertid at disse intelligente systemene for det meste opererer i bakgrunnen og tar beslutninger som styrer utfallet og skjebnen til ofrene for systemet, uten at vi aner noe om saken deres. Under dekke av kunstig intelligens kan det dukke opp to former, for eksempel useriøse algoritmer, partiske modeller og uautoriserte programmer for kunstig intelligens.

Kontroversen om kunstig skyggeintelligens er drevet frem av stadig kraftigere og mer tilgjengelig programvare og maskinvare for kunstig intelligens. I takt med at kunstig intelligens blir stadig billigere og enklere å implementere i hverdagen, kan virksomheter ta i bruk systemer for kunstig intelligens uten å være klar over konsekvensene eller ta hensyn til etiske forgreninger og juridiske regler.

Konsekvenser av problemet med kunstig intelligens i skyggen

Kunstig intelligens som pseudonym gir flere presserende problemer for samfunnet, næringslivet og privatpersoner.

Etiske bekymringer

Risikoen ved en skjev behandling som kunstig skyggeintelligens kan føre til enda større ulikhet. Disse systemene kan for eksempel forsterke fordommer eller bli drevet av de samme fordommene fordi systemene er bygget på forutinntatte data, eller fordi de ikke har gjennomgått tilstrekkelig tilsyn og kontroll.

Regulatoriske risikoer

Uovervåkede og ukontrollerte autonome systemer for kunstig intelligens som ikke er i samsvar med regelverket, kan føre til brudd på krav til personvern, sikkerhet og andre reguleringer, noe som kan få juridiske og økonomiske konsekvenser.

Skade på omdømmet

Eksemplene på uengasjert kunstig intelligensteknologi som svikter etisk eller gir skadelige resultater for selskaper, kan sette merkevaren i et negativt lys. Slike situasjoner kan føre til tap av forbrukernes tillit, merkevarebevissthet og annet.

Sikkerhetstrusler

En trussel kan oppstå når en enhet med ondsinnede hensikter får tilgang til et kunstig intelligenssystem, selv om den ikke har militære eller politimessige hensikter. Slike systemer med kunstig intelligens kan, bak ugjennomtrengelige vegger, bli et inngangspunkt for å angripe kritiske systemer, noe som kan føre til datainnbrudd, avsløring av kritisk infrastruktur osv.

Strategier for å håndtere problemet med kunstig skyggeintelligens

Strategier for å håndtere kunstig intelligens i skyggen og sørge for sikker, kompatibel og effektiv kunstig intelligens.

Åpenhet og ansvarlighet

Bedrifter og myndigheter bør forplikte seg til å øke åpenheten og ansvarligheten rundt utvikling og bruk av applikasjoner og systemer for kunstig intelligens. Dette innebærer å etablere mekanismer for å dokumentere algoritmer, datakilder og beslutningsprosesser for kunstig intelligens, slik at de kan spores og etterprøves.

Etisk styring av kunstig intelligens

Å bygge sterke rammeverk for etisk styring av kunstig intelligens kan derfor være et avgjørende skritt for å overvinne noen av ulempene med kunstig skyggeintelligens. Dette krever ikke bare at man fastsetter et tydelig etisk rammeverk og standarder som skal følges, men også at man har på plass strukturer for gjennomgang og tilsyn.

Utdanning og bevissthet

Det er mulig å utvikle et medborgerskap for kunstig intelligens ved å øke forståelsen for etikk, risiko og beste praksis blant utviklere, dataforskere og beslutningstakere. Det er den eneste måten å forhindre spredning av kunstig intelligens på. Opplærings- og veiledningsaktiviteter, workshops og hjelpemidler kan være viktige faktorer for å sikre etikk innen kunstig intelligens.

Overholdelse av regelverk

Organisasjoner må sikre at de overholder relevante lover, forskrifter og standarder for utvikling og bruk av kunstig intelligens. Det kan dreie seg om regelverk for personvern (som GDPR), privatrettslige instrumenter og jurisdiksjonstilnærminger, samt den nye utviklingen innen styring av kunstig intelligens.

Samarbeid og partnerskap

Deltakelse fra alle aktører i bransjen, lovgivere, akademia og sivilsamfunnet vil bidra til å effektivisere den videre kampen mot problemet med «kunstig skyggeintelligens». Gjennom samarbeid vil interessentene få mulighet til å dele beste praksis, samarbeide om gjeldende standarder og lage retningslinjer som gjør utviklingen av kunstig intelligens så ansvarlig som mulig.

Kontinuerlig overvåking og evaluering

En periodisk kontroll av kunstig intelligens-systemers ytelse, oppførsel og konsekvenser bør være på plass. Denne styringsmekanismen vil gjøre det mulig å oppdage og løse tilfeller av kunstig skyggeintelligens. Organisasjoner må utvikle metoder for kontinuerlig overvåking, tilbakemelding og evaluering av ytelsen for å sikre at verktøyene for kunstig intelligens fungerer etisk og funksjonelt.