Miksi ne tekoälyjärjestelmät hallusinoivat

Nykyään tekoäly (AI) toimii virtuaaliavustajien, älykotilaitteiden, terveydenhuollon diagnostiikan ja itseajavien autojen muodossa. Tämän kriittisen teknologian kehityksessä ilmenee kuitenkin ongelma, koska se aiheuttaa niin sanottuja ”tekoälyharhoja”.

Miksi tekoälyjärjestelmät harhauttavat?

Yksinkertaisesti sanottuna tekoälyharhoilla tarkoitetaan tapauksia, joissa tekoälyjärjestelmät tuottavat tai päättelevät virheellistä tietoa, jota ei ollut olemassa niiden harjoitustietojen keruun aikana. Toisaalta tekoälyharhojen ratkaisematta jättäminen voi johtaa ongelmiin, kuten valheiden levittämiseen ja puolueellisten tuomioiden tekemiseen, mikä aiheuttaa sekä taloudellisia että turvallisuusongelmia. Selostamme, miksi tekoälyjärjestelmät harhauttavat, mistä se johtuu ja miten se voidaan estää.

Tekoälyjärjestelmät hallusinoivat todennäköisesti silloin, kun suuri kielimalli pystyy havaitsemaan piirteitä tai kohteita, joita ei ole koskaan nähty tai joita ei ole lainkaan olemassa. Tämä saa sen tuottamaan virheellistä lähtötietoa, jossa ei ole mitään järkeä todellisessa elämässä, mutta joissakin tapauksissa se perustuu itse havaitsemiinsa kuvioihin/kohteisiin.

Toisin sanoen tekoälyjärjestelmät hallusinoivat, kun mallit tekevät vääriä väitteitä tai riippuvat koulutusdatan triviaaleista kuvioista ja ennakkoluuloista tuottaakseen tai puolustaakseen kiistanalaisia vastauksia, mutta tämä tapahtuu korkeammalla monimutkaisuustasolla.

Tekoälyn hallusinaatioiden syyt

On olemassa muutamia keskeisiä syitä siihen, miksi tekoälyjärjestelmät hallusinoivat:

Datan ennakkoluulot

Useimmat mallit tuovat esiin puuttuvia tietoja ja/tai harjoitusdatanäytteitä, jotka ovat epätäydellisiä tai jotka sisältävät puolueellisia/epäoikeudenmukaisia elementtejä, koska tekoälyllä ei ole mitään keinoa arvioida asiaan liittyvää oikeudenmukaisuutta tai ennakkoluuloja.

On esimerkiksi ollut tapauksia, joissa kasvojentunnistusalgoritmit eivät ole kyenneet tunnistamaan muita kuin valkoihoisia kasvoja – tämän on katsottu johtuvan harjoitusdatajoukoista, jotka on koottu tällaisten ennakkoluulojen perusteella.

Ylisovittaminen

Liiallinen tieto tietokannassaan on toinen syy siihen, miksi tekoälyjärjestelmät harhauttavat. Joitakin tunnistettuihin neuroverkkoihin liittyviä ongelmia on se, että oppiessaan tämän rajallisen tietokannan kuvioista ne saattavat pikemminkin ”muistaa” tai ”ylisovittaa” liian meluisia kuvioita. Tämä puolestaan tekee niistä todennäköisemmin hallusinoivia, kun ne altistuvat erilaisille syötteille kuin mitä ne kohtasivat harjoittelun aikana.

Virheiden kasautuminen

Pienet virheet tai kohina syöttötiedoissa suurentuvat hierarkkisesti prosessoidussa muodossa, ja esimerkiksi suurissa muuntajamalleissa, joissa on muutama miljardi parametria, se voi johtaa vääristyneiden tai jopa väärennettyjen ulostulojen syntymiseen.

Palautesilmukat

Harhojen ongelma voi jopa pahentua itseohjautuvissa järjestelmissä, jos sitä ei korjata. Tekoäly voi esimerkiksi luoda kuvan neuroverkon perusteella, ja syvä väärennös voi saada toisen tekoälyn uskomaan, että tieto on todellista.

Mahdolliset haitat, joita tekoälyn hallusinaatioista voi aiheutua

Tekoälyn hallusinaatiot aiheuttavat vakavia haasteita. Tässä ovat seuraavat tapaukset, joita voimme odottaa, jos niihin ei puututa:

Väärinformaatio

Totuudenmukaisuuden puute yhdistettynä botti tekoälyn väärennösluonteeseen tarkoittaa, että väärennetyt tilastot ja väärää tietoa voivat levitä ja vääristää ihmisten kykyä löytää luotettavaa tietoa. Tämä on suurelta osin huolestuttavaa, jos järjestelmiä käytetään journalismissa, koulutuksessa tai julkisessa päätöksenteossa.

Yksityisyyden loukkaukset

Arkaluonteiset yksityiset tiedot yksilöistä, joita ei ole koskaan tarkkailtu, voivat loukata yksityisyyttä ja heikentää luottamusta, jos tällaisia järjestelmiä sovelletaan vastaaviin tehtäviin, kuten terveydenhuoltoon, lainvalvontaan jne.

Syrjäytyneisiin ryhmiin kohdistuvat haitat

Kuten aiemmin on todettu, tekoälytietoaineistoissa valinnanvinoumien voidaan hyvin sanoa syrjivän sosiaalisesti heikommassa asemassa olevia ryhmiä ja tekevän sosiaalisesta oikeudenmukaisuudesta entistä suuremman ongelman.

Turvallisuusriskit

Hallusinaatiot tekoälyllä on väärää tietoa itseajavien autojen muistiinpanoista tai oppaista tai lääketieteellisistä diagnoosilaitteista, mikä voi johtaa onnettomuuksiin, loukkaantumisiin tai vääriin lääketieteellisiin päätöksiin, koska tällaiset tekoälyjärjestelmät ovat riippuvaisia epätäydellisestä tiedosta.

Taloudelliset kustannukset

Innovaatioiden ja kasvun puuttuminen hallusinoivan tekoälyn käytöstä useisiin tiloihin ja palvelutoimituksiin voi johtaa asiakkaiden luottamuksen menettämiseen sekä siihen liittyvien organisaatioiden ja tilojen arvon alenemiseen. Näille kustannuksille ei ole aina mahdollista osoittaa konkreettista lukua, mutta vaarat ovat liian suuret.

Tekoälyharhojen ehkäiseminen

Seuraavassa esitetään ennakoivia toimia, joita tutkijat toteuttavat tekoälyharhojen ehkäisemiseksi:

Laaja valikoima puolueetonta tietoa

Koulutustietoaineistojen kerääminen, jotka eivät sisällä ennakkokäsityksiä tai suosi yhtä yhteiskunnan osaa toisten kustannuksella, auttaa tekoälyä kouluttamaan itseään hyvin. Julkiset tietokannat on puhdistettava ja faktatarkastettava, jotta väärennettyjen tietojen leviäminen estetään.

Tietojen esikäsittely

Toimenpiteet, kuten törkeiden havaintojen poistaminen, tietojen anonymisointi, ominaisuuksien vähentäminen jne. voivat auttaa poistamaan kohinaa ja ei-toivottuja malleja tiedoista ennen niiden syöttämistä järjestelmälle.

Mallin arviointi

Tekoälyjärjestelmiä olisi tarkistettava jatkuvasti käyttämällä uusia arviointitietoaineistoja, jotka on suunniteltu huolellisesti uusien harhojen tunnistamiseksi.

Mallin seuranta

Tekoälyn ei-toivottujen reaktioiden selvittämiseksi voidaan mallien, kuten mallikorttien tai tietolomakkeiden kaltaisten mekanismien avulla kirjata tekoälyn käyttäytyminen ajan mittaan.

Selitettävä tekoäly

Käyttämällä menetelmiä, kuten huomiokarttoja ja SHAP-arvoja, voidaan ymmärtää, miksi mallit päätyivät kyseiseen vasteeseen, sekä tunnistaa yksinkertaisia analyysejä, jotka perustuvat mallien kanssa yhteensopiviin piirteisiin verrattuna satunnaisiin malleihin.

Konservatiivinen käyttöönotto

Tekoälyjärjestelmät olisi rajattava tietyille aloille ja niitä olisi käytettävä vain rajoitetusti ja valvotusti ihmisten valvomana, kunnes tekoäly osoittautuu turvalliseksi, luotettavaksi ja kaksi kertaa oikeudenmukaisemmaksi kohtelussa ihmisiin nähden.

Jotta tekoäly voisi jatkossakin tuottaa yhteiskunnallisia hyötyjä ja ehkäistä hallusinaatioihin liittyvien vahinkojen vaaran, organisaatioiden olisi kohdattava tietojen ja mallien laatuongelmat etukäteen. Olkaa varovaisia ja vastuullisia välttääksenne vakavia seurauksia, joita voi syntyä tekoälyn hallusinaatioista ja niihin liittyvistä harhaluuloista.

Lyhyesti sanottuna tekoälyharhojen riskit ovat hallittavissa, jos niiden lieventämiseksi toteutetaan vastaavia strategioita. Mahdollisten kielteisten seurausten välttäminen vaatii kuitenkin teknologian kehittäjiltä ja politiikan muutoksiin vaikuttavilta tahoilta sinnikästä tarkkailua. Vasta tällaisten yhteisten pyrkimysten jälkeen voimme kehittää tekoälyjärjestelmän, joka vaikuttaa ihmisiin myönteisesti ja takaa samalla heidän suojelunsa.

Lopuksi olemme valmistelleet teille usein kysytyt kysymykset ja niihin annetut vastaukset.

Mitä ovat tekoälyharhat?

Tekoälyharhoilla tarkoitetaan tapauksia, joissa tekoälyjärjestelmät tuottavat väärää tai järjetöntä tietoa, mikä johtuu usein tietojen tai mallien vääristä tulkinnoista.

Miksi tekoälyjärjestelmät hallusinoivat?

Tekoälyjärjestelmät voivat harhailla eri tekijöiden, kuten liiallisen sovittamisen, harjoitteludatan vääristymien ja mallien suuren monimutkaisuuden vuoksi.

Kuinka yleisiä tekoälyn hallusinaatiot ovat?

Hallusinaatiot voivat olla melko yleisiä tekoälyssä, erityisesti suurissa kielimalleissa ja generatiivisissa työkaluissa, joissa ei ole rajoituksia mahdollisille tuloksille.

Voidaanko tekoälyn hallusinaatioita ehkäistä?

Tekoälyn hallusinaatioiden estäminen edellyttää selkeiden rajojen määrittämistä tekoälymalleille suodatustyökalujen avulla ja todennäköisyysrajojen asettamista.

Mitkä ovat tekoälyharhojen seuraukset?

Seuraukset voivat vaihdella väärän tiedon levittämisestä todellisten haittojen aiheuttamiseen, kuten virheellisiin lääketieteellisiin diagnooseihin.

Miten tekoälyharhat vaikuttavat luottamukseen tekoälyjärjestelmiin?

Hallusinaatiot voivat heikentää luottamusta tekoälyyn, koska niiden vuoksi järjestelmän tuloksiin on vaikea luottaa ilman todentamista.

Onko olemassa kuuluisia esimerkkejä tekoälyn hallusinaatioista?

Kyllä, tunnettuja esimerkkejä ovat esimerkiksi chatbotit, jotka tuottavat väärennettyjä akateemisia papereita tai antavat virheellistä tietoa asiakaspalveluvuorovaikutuksessa.

Esiintyykö tekoälyn hallusinaatioita sekä kieli- että kuvajärjestelmissä?

Kyllä, tekoälyharhoja voi esiintyä sekä kielimalleissa että tietokonenäköjärjestelmissä.

Mikä rooli harjoitusdatalla on tekoälyn hallusinaatioissa?

Koulutusdata on ratkaisevan tärkeää – vääristynyt tai epäedustava data voi johtaa hallusinaatioihin, jotka heijastavat näitä vääristymiä.

Onko tekoälyn hallusinaatioita koskevaa tutkimusta käynnissä?

Kyllä, tekoälyn hallusinaatioiden ymmärtämiseen ja lieventämiseen kohdistuu merkittävää tutkimusta, jolla pyritään parantamaan tekoälyjärjestelmien luotettavuutta.