Dirbtinio intelekto šališkumo priežastys ir pasekmės

Dirbtinis intelektas (DI) pakeitė daugelį pramonės šakų, padidindamas efektyvumą, inovacijas ir sprendimų priėmimo galimybes. Tačiau taip pat nustatyta, kad kai kuriose dirbtinio intelekto sistemose yra įtvirtintas šališkumas, turintis svarbių pasekmių, darančių įtaką sistemų rezultatams, teisingumui ir net patikimumui.

Svarbu suprasti, kodėl ir kaip atsiranda dirbtinio intelekto šališkumas, kokių pasekmių jis turi ir kaip jo išvengti ar bent sumažinti, kad dirbtinis intelektas būtų naudingas ir kartu būtų žinomi galimi jo trūkumai.

Dirbtinio intelekto šališkumo priežastys

Yra techninių ir visuomeninių dirbtinio intelekto šališkumo priežasčių. Viena iš jų yra duomenų šališkumas. Iš didžiulio kiekio duomenų daromos išvados, ir jeigu šie duomenys yra šališki arba juose yra mažai informacijos, tuomet dirbtinio intelekto sistema išmoksta ir kartoja šališkumą. Pavyzdžiui, istorinė informacija, turinti įvairių šališkumų konkrečių žmonių grupių atžvilgiu, gali sukelti diskriminaciją, kai ji įtraukiama į dirbtinio intelekto sprendimų priėmimo sistemą.

Kita priežastis – algoritminis dizainas. Paaiškėja, kad algoritmų projektavimo sprendimai, pavyzdžiui, pasirinktos savybės, mokymo metodai ir naudojamos optimizavimo metrikos, gali sukelti šališkumą. Kartais jie gali sustiprinti išankstinį nusistatymą, jau įtvirtintą mokymo duomenyse, arba išskirti tam tikras žmonių kategorijas.

Dirbtinio intelekto šališkumo poveikis

Dirbtinio intelekto šališkumas gali turėti rimtą poveikį visuomenei ir verslui įvairiose žmogaus veiklos srityse. Įdarbinimo ir įdarbinimo atveju šališki dirbtinio intelekto algoritmai gali diskriminuoti tam tikros lyties, rasės ar kitų žemos socialinės ir ekonominės padėties rodiklių kandidatus. Tai tik įtvirtina esamą nelygybę darbo jėgos tarpe.

Panašiai šališkumas gali būti panaudotas programose, kuriose dirbtinis intelektas naudojamas rizikos vertinimui arba bausmės skyrimo baudžiamosios justicijos sistemose atskaitos taškų sudarymui – šiuo aspektu mažumos gali turėti išankstinį nusistatymą. Sveikatos priežiūros dirbtinis intelektas, kuris nėra sukurtas taip, kad būtų neutralus, gali turėti įtakos pacientui ir jo gydymo planui, įskaitant neteisingą diagnozę ar neteisingą prevencinių procedūrų rekomendavimą, todėl gali nukentėti pacientų pasitikėjimas sveikatos priežiūros dirbtinio intelekto sprendimais.

Be to, akivaizdu, kad šališkas dirbtinis intelektas finansinėse paslaugose gali lemti diskriminacinį kreditų vertinimą, nes kreditų sprendimai grindžiami su kreditingumu nesusijusiais požymiais, pavyzdžiui, etnine kilme ar lytimi. Šie neigiami padariniai ne tik kenkia nukentėjusiems žmonėms, bet ir mažina dirbtinio intelekto technologijų pripažinimą.

Poveikio mažinimo strategijos

Siekiant spręsti šališkumo dirbtiniame intelekte problemą, į ją reikia žvelgti iš duomenų rinkimo, algoritmų kūrimo ir vertinimo perspektyvų. Toliau pateikiamos pagrindinės dirbtinio intelekto šališkumo mažinimo strategijos:

Įvairūs ir reprezentatyvūs duomenys

Labai svarbu užtikrinti, kad mokymo duomenų rinkinys atspindėtų populiaciją, su kuria dirbtinio intelekto sistema tikriausiai dirbs. Tai praverčia mažinant šališkumą, kuris gali būti duomenų rinkinyje, nes dirbtinio intelekto algoritmai mokosi įvairioje aplinkoje.

Algoritmų skaidrumas

Padidinkite dirbtinio intelekto algoritmų sprendimų priėmimo proceso aiškumą, kad šį procesą būtų galima paaiškinti visiems suinteresuotiems asmenims. Didelio prieinamumo metodai taip pat gali padėti naudotojams suprasti procesą, kuriuo dirbtinis intelektas priima sprendimą, taip pat išgauti šališkumą.

Reguliarus auditas ir peržiūros

Rekomenduojama periodiškai atlikti dirbtinio intelekto sistemų auditą ir rizikos vertinimą, kad būtų galima aptikti šališkumą, kuris gali atsirasti laikui bėgant. Sprendžiant šią problemą, siekiant užtikrinti, kad dirbtinio intelekto sistemos būtų sąžiningos ir nešališkos keičiantis visuomenės normoms ir kontekstui, taikomas toliau nurodytas aktyvus požiūris.

Įvairios komandos ir suinteresuotųjų šalių įtraukimas

Skatinkite kultūrinės ir lyčių įvairovės įtraukimą į dirbtinio intelekto taikomųjų programų kūrimą ir įtraukite suinteresuotąsias šalis į kūrimo etapus ir bandymus. Tai padeda nustatyti organizacijose paplitusias „akląsias dėmes”, kai kūrimo komandoje trūksta atstovų iš nepakankamai atstovaujamų grupių, ir užtikrina, kad sukurtos dirbtinio intelekto sistemos nediskriminuotų šių grupių prognozių.

Etinės gairės ir valdymas

Užtikrinkite, kad dirbtinio intelekto kūrimui ir naudojimui būtų taikomi aiškiai apibrėžti etiniai standartai ir veiklos taisyklės. Tokias sistemas turėtų sudaryti principai, reglamentuojantys tinkamą dirbtinio intelekto naudojimą, skundų, susijusių su šališkumo buvimu, nagrinėjimo procedūros ir reguliarūs tobulinimo bei stebėsenos procesai.