Etiske aspekter ved kunstig intelligens: Ansvarlighet og innovasjon

Moderne innovasjon og ansvarlighet er i stor grad avhengig av teknologi, noe som kan ses ut fra betydningen av kunstig intelligens (AI). Kunstig intelligens har gjort det mulig å finne svar og prosedyrer som aldri før har vært mulige.

Det finnes imidlertid en rekke etiske problemstillinger knyttet til kunstig intelligens, som har oppstått i takt med at teknologien har utviklet seg så raskt og blitt en del av folks liv. Vi må derfor forholde oss til et bredt spekter av etiske aspekter ved kunstig intelligens for å kunne bruke denne kraftfulle teknologien på en ansvarlig måte.

Partiskhet og rettferdighet

Kunstig intelligens er ikke noe ingeniører skaper ut av løse luften – det er snarere den kunstige intelligensen som kopierer samfunnets feil og mangler. Hvis kunstig intelligens brukes i den virkelige verden og trenes opp på data som ikke dekker mangfoldet i menneskelivet, kan det faktisk forsterke dårlige preferanser eller negative fordommer i samfunnet.

Dette kan komme til syne i for eksempel rasistisk skjevhet i analyseprogramvare for å forutsi kriminalitetsrater og seksuell skjevhet i programmer for utvelgelse av menneskelige ressurser. For å håndtere disse risikoene må man bruke flere former for data og skape kunstig intelligens med hensyn til mangfold. Åpenhet i prosedyrene for kunstig intelligens og begrunnelser for de handlingene som kunstig intelligens-systemer har utført, er imidlertid også avgjørende for rettferdigheten.

Personvern og databeskyttelse

Vi lever i en tid med «big data», der informasjon er blitt den viktigste varen, og kunstig intelligens er en gigant som sluker så mye av den som den kan. Alle store innovasjoner og ansvarsforhold krever sine belønninger og kostnader, men kunstig intelligens’ ustoppelige etterspørsel etter data er et verktøy som griper inn i personvernet.

Selv om det er mulig å oppgi kun spesifikk informasjon fra personen og få et resultat, kan personlig informasjon som kommer inn i det kunstige intelligenssystemet, brukes på måter som en person ikke forventer eller godtar.

Ansvarlighet og åpenhet

Dette aktualiserer også spørsmålet om hvem som er ansvarlig for beslutningene som tas når disse oppgavene delegeres til systemer med kunstig intelligens. Et spesielt viktig spørsmål som oppstår når man implementerer et «intelligent» system, er ansvarsspørsmålet – hvem eller hva er ansvarlig når systemets beslutning resulterer i et ugunstig utfall?

Eller er det utviklerne av en slik applikasjon, brukerne som genererer spesifikt innhold og data, dataleverandørene eller selve applikasjonen som er forbedret med kunstig intelligens? Nøkkelen til å ivareta de etiske hensynene i kunstig intelligens er å gå inn for at det skal være operasjonelt klart og at ansvarsforvaltningen skal være eksklusiv.

Miljømessige hensyn

Miljøkonsekvensene av kunstig intelligens blir ofte ignorert. Opplæring av komplekse kunstig intelligens-modeller krever store datamengder, noe som betyr at det også krever mye strøm, hovedsakelig basert på fossilt brensel. Dette kan være en av grunnene til at kunstig intelligens er problematisk med tanke på bærekraft. Noen av de tingene vi kan gjøre for å redusere det økologiske fotavtrykket til kunstig intelligens, er å utvikle miljøvennlig kunstig intelligens, optimalisere algoritmene for energieffektivitet og bruke grønne energikilder.

Rollen til menneskelig dømmekraft

Menneskelig dømmekraft i kunstig intelligens handler om å integrere menneskelig innsikt og kontekstuell forståelse i beslutningsprosesser basert på kunstig intelligens. De uklare grensene mellom hvilke oppgaver kunstig intelligens kan utføre bedre enn mennesker, og omvendt, hvor den ikke kan utføre dem i det hele tatt, skaper et etisk problem i hjertet av dette teknologisegmentet. Derfor er det nødvendig å trekke opp disse grensene, slik at kunstig intelligens faktisk supplerer menneskelig dømmekraft, men ikke erstatter den, særlig når det gjelder så viktige aspekter som moral og etikk, som ikke kan overvurderes i sin betydning.

Balansegang

Sjonglering av beslutninger er en hårfin balansegang mellom det å være innovativ og det å ta etiske hensyn i kunstig intelligens. Kunstig intelligens gir store fordeler, særlig på områder som helsetjenester, kommunikasjon og bedre prestasjoner, men det er en risiko for at menneskerettighetene kan bli krenket hvis det ikke finnes etiske kontrollmekanismer for dette. Derfor må de som er forpliktet til å ta stilling til enten skapelsesprosessen eller bruken av kunstig intelligens, holde fokus på fordelene snarere enn på kostnadene forbundet med bruken.