Prečo majú systémy umelej inteligencie halucinácie

Umelá inteligencia (AI) dnes funguje vo forme virtuálnych asistentov, inteligentných domácich zariadení, diagnostiky v zdravotníctve a samojazdiacich áut. Napriek tomu vzniká pri vývoji tejto kritickej technológie problém, pretože spôsobuje tzv. halucinácie umelej inteligencie.

Prečo majú systémy umelej inteligencie halucinácie?

Zjednodušene povedané, halucinácie umelej inteligencie sa týkajú prípadov, keď systémy umelej inteligencie generujú alebo odvodzujú nesprávne informácie, ktoré neexistovali počas ich tréningového zberu údajov. Na druhej strane, neriešenie halucinácií umelej inteligencie môže viesť k problémom, ako je šírenie nepravdivých informácií a vynášanie neobjektívnych súdov, čo vedie k ekonomickým aj bezpečnostným problémom. Vysvetlíme, prečo majú systémy umelej inteligencie halucinácie, ich príčiny a prevenciu.

K halucináciám systémov umelej inteligencie pravdepodobne dochádza vtedy, keď veľký jazykový model dokáže pozorovať vlastnosti alebo objekty, ktoré nikdy nevidel alebo ktoré vôbec neexistujú. To spôsobuje, že generuje nesprávne výstupné informácie, ktoré v reálnom živote nedávajú zmysel, ale v niektorých prípadoch sú založené na vzoroch/objektoch, ktoré sám vníma.

Inými slovami, systémy umelej inteligencie halucinujú, keď modely vytvárajú nepravdivé tvrdenia alebo závisia od triviálnych vzorov a predsudkov v trénovaných údajoch, aby vytvorili alebo obhájili kontroverzné odpovede, čo sa však deje na vyššej úrovni zložitosti.

Príčiny halucinácií umelej inteligencie

Existuje niekoľko kľúčových dôvodov, prečo systémy umelej inteligencie halucinujú:

Predsudky v údajoch

Chýbajúce údaje a/alebo vzorky trénovacích údajov, ktoré sú neúplné alebo obsahujú tendenčné/precedenčné prvky, prináša väčšina modelov, pretože umelá inteligencia nemá možnosť posúdiť príslušnú spravodlivosť alebo predsudky.

Vyskytli sa napríklad prípady, keď algoritmy na rozpoznávanie tvárí nedokázali rozpoznať tváre inej ako bielej pleti – pripisuje sa to tréningovým dátovým súborom, ktoré boli zostavené na základe takýchto predsudkov.

Nadmerné prispôsobenie

Ďalším dôvodom, prečo systémy umelej inteligencie halucinujú, je nadmerné množstvo informácií v ich databáze. Niektoré z problémov týkajúcich sa identifikovaných neurónových sietí spočívajú v tom, že pri učení sa zo vzorov v tejto obmedzenej množine údajov si môžu skôr „zapamätať“ alebo „prefitovať“ príliš zašumené vzory. To následne zvyšuje pravdepodobnosť, že budú halucinovať, keď budú vystavené iným vstupom, než s akými sa stretli počas tréningu.

Kumulácia chýb

Malé chyby alebo šum vo vstupných údajoch sa v ich hierarchicky spracovanej podobe zväčšia a napríklad vo veľkých transformačných modeloch s niekoľkými miliardami parametrov to môže viesť ku generovaniu skreslených alebo dokonca vymyslených výstupov.

Spätné väzby

Problém halucinácií sa môže v samonavádzaných systémoch ešte znásobiť, ak sa neupraví. Napríklad umelá inteligencia môže vytvoriť fotografiu na základe neurónovej siete a deepfake môže inú umelú inteligenciu presvedčiť, že táto informácia je skutočná.

Možné škody, ktoré prichádzajú s halucináciami umelej inteligencie

Halucinácie umelej inteligencie predstavujú vážne problémy. Tu sú uvedené nasledujúce prípady, ktoré môžeme očakávať, ak sa nebudú riešiť:

Dezinformácie

Nedostatok pravdivosti v kombinácii s falšovateľskou povahou botov umelej inteligencie znamená, že falošné štatistiky a dezinformácie by sa mohli stať virálnymi a narušiť schopnosť ľudí nájsť spoľahlivé údaje. To je do značnej miery znepokojujúce, ak sa systémy používajú v žurnalistike, vzdelávaní alebo v oblastiach tvorby verejnej politiky.

Porušovanie súkromia

Citlivé súkromné údaje o jednotlivcoch, ktoré neboli nikdy pozorované, by mohli hlboko narušiť súkromie a narušiť dôveru, ak sa takéto systémy použijú na zodpovedajúce úlohy, ako je zdravotníctvo, presadzovanie práva atď.

Poškodenie marginalizovaných skupín

Ako už bolo uvedené, v súboroch údajov umelej inteligencie sa dobre hovorí o selekčných predsudkoch, ktoré diskriminujú sociálne znevýhodnené skupiny a menia sociálnu spravodlivosť na ešte väčší problém.

Bezpečnostné riziká

Halucinácie umelej inteligencie majú chybné informácie týkajúce sa poznámok alebo sprievodcov na samojazdiacich autách alebo lekárskych diagnostických prístrojoch, čo môže viesť k nehodám, zraneniam alebo nesprávnym lekárskym rozhodnutiam, pretože takéto systémy umelej inteligencie závisia od nedokonalých informácií.

Ekonomické náklady

Nedostatok inovácií a rastu z používania halucinačnej umelej inteligencie pre viaceré zariadenia a dodávky služieb by mohol viesť k strate dôvery zákazníkov, ako aj k zníženiu hodnoty súvisiacich organizácií a zariadení. Priradiť týmto nákladom hmatateľné číslo nie je vždy možné, ale nebezpečenstvo je príliš veľké.

Predchádzanie halucináciám umelej inteligencie

Tu sú proaktívne kroky, ktoré výskumníci podnikajú v oblasti prevencie halucinácií umelej inteligencie:

Široký rozsah neskreslených údajov

Zhromažďovanie tréningových súborov údajov, ktoré neobsahujú predsudky ani neuprednostňujú jednu časť spoločnosti pred druhou, pomáha umelej inteligencii dobre sa trénovať. Verejné databázy je potrebné čistiť a kontrolovať fakty, aby sa zabránilo šíreniu falošných údajov.

Predbežné spracovanie údajov

Opatrenia, ako je odstránenie nápadných pozorovaní, anonymizácia údajov, redukcia príznakov atď. môžu pomôcť pri odstraňovaní šumu a nežiaducich vzorov z údajov pred ich vložením do systému.

Vyhodnotenie modelu

Systémy umelej inteligencie by sa mali podrobovať neustálej kontrole pomocou nových súborov hodnotiacich údajov, ktoré sú starostlivo navrhnuté na identifikáciu nových halucinácií.

Monitorovanie modelu

Na zohľadnenie nežiaducej reakcie umelej inteligencie môžu mechanizmy, ako sú karty modelov alebo výpisy údajov, umožniť zaznamenávať správanie umelej inteligencie v priebehu času.

Vysvetliteľná umelá inteligencia

Pomocou metodík, ako sú mapy pozornosti a hodnoty SHAP, možno pochopiť, prečo modely prišli s touto reakciou, ako aj identifikovať jednoduché analýzy založené na vlastnostiach kompatibilných s modelmi v porovnaní s náhodnými vzormi.

Konzervatívne nasadenie

Systémy umelej inteligencie by mali byť obmedzené na špecifické oblasti a mali by mať len obmedzené a kontrolované použitie s dohľadom ľudí, kým sa umelá inteligencia nepreukáže ako bezpečná, spoľahlivá a dvakrát spravodlivejšia v zaobchádzaní s ľuďmi.

Aby umelá inteligencia naďalej prinášala spoločenský úžitok a predchádzala nebezpečenstvu škôd súvisiacich s halucináciami, organizácie by mali vopred čeliť problémom s kvalitou údajov a modelov. Buďte opatrní a zodpovední pri predchádzaní vážnym dôsledkom, ktoré môžu vyplynúť z halucinácií umelej inteligencie a súvisiacich omylov.

Stručne povedané, riziká halucinácií z umelej inteligencie možno kontrolovať, ak sa zavedú zodpovedajúce stratégie na ich zmiernenie. Napriek tomu vyhýbanie sa možným negatívnym dôsledkom si vyžaduje vytrvalé pozorovanie zo strany vývojárov technológií a tých, ktorí ovplyvňujú politické zmeny. Až po vykonaní takýchto spoločných pokusov môžeme vyvinúť systém umelej inteligencie, ktorý bude mať pozitívny vplyv na ľudí a zároveň zaručí ich ochranu.

Na záver sme pre vás pripravili najčastejšie kladené otázky a odpovede na ne

Čo sú to halucinácie umelej inteligencie?

Halucináciami umelej inteligencie sa označujú prípady, keď systémy umelej inteligencie generujú falošné alebo nezmyselné informácie, často v dôsledku nesprávnej interpretácie údajov alebo vzorov.

Prečo systémy umelej inteligencie halucinujú?

Systémy umelej inteligencie môžu mať halucinácie v dôsledku rôznych faktorov vrátane nadmerného prispôsobenia, skreslenia v trénovaných údajoch a vysokej zložitosti modelu.

Ako časté sú halucinácie umelej inteligencie?

Halucinácie môžu byť v umelej inteligencii pomerne časté, najmä vo veľkých jazykových modeloch a generatívnych nástrojoch, ktoré nemajú obmedzenia na možné výsledky.

Dá sa halucináciám v umelej inteligencii predchádzať?

Predchádzanie halucináciám umelej inteligencie zahŕňa definovanie jasných hraníc pre modely umelej inteligencie pomocou filtračných nástrojov a stanovenie pravdepodobnostných prahov.

Aké sú dôsledky halucinácií umelej inteligencie?

Dôsledky môžu siahať od šírenia dezinformácií až po spôsobenie skutočných škôd, napríklad nesprávnych lekárskych diagnóz.

Ako ovplyvňujú halucinácie umelej inteligencie dôveru v systémy umelej inteligencie?

Halucinácie môžu narušiť dôveru v umelú inteligenciu, pretože sťažujú spoľahnutie sa na výstupy systému bez overenia.

Existujú nejaké známe príklady halucinácií umelej inteligencie?

Áno, medzi známe príklady patria chatboty generujúce falošné akademické práce alebo poskytujúce nesprávne informácie v interakciách so zákazníkmi.

Vyskytujú sa halucinácie umelej inteligencie v jazykových aj obrazových systémoch?

Áno, halucinácie umelej inteligencie sa môžu vyskytnúť v jazykových modeloch aj v systémoch počítačového videnia.

Akú úlohu zohrávajú tréningové údaje pri halucináciách umelej inteligencie?

Tréningové údaje sú kľúčové – skreslené alebo nereprezentatívne údaje môžu viesť k halucináciám, ktoré odrážajú tieto skreslenia.

Prebieha výskum zameraný na halucinácie umelej inteligencie?

Áno, existuje významný výskum zameraný na pochopenie a zmiernenie halucinácií umelej inteligencie s cieľom zvýšiť spoľahlivosť systémov umelej inteligencie.