Miért hallucinálnak a mesterséges intelligencia rendszerek

Napjainkban a mesterséges intelligencia (AI) virtuális asszisztensek, okosotthon-eszközök, egészségügyi diagnosztika és önvezető autók formájában működik. Ennek ellenére probléma merül fel ennek a kritikus technológiának a fejlődésével kapcsolatban, mert az úgynevezett „mesterséges intelligencia hallucinációkat” okoz.

Miért hallucinálnak a mesterséges intelligencia rendszerek?

Egyszerűen szólva, a mesterséges intelligencia hallucináció olyan esetekre utal, amikor a mesterséges intelligencia rendszerek olyan helytelen információkat generálnak vagy következtetnek, amelyek nem léteztek a képzési adatgyűjtésük során. Másrészt a mesterséges intelligencia hallucinációk feloldásának elmulasztása olyan problémákhoz vezethet, mint a valótlanságok terjesztése és az elfogult ítéletek meghozatala, ami gazdasági és biztonsági aggályokhoz egyaránt vezethet. Elmagyarázzuk, hogy miért hallucinálnak a mesterséges intelligencia rendszerek, ennek okait és megelőzését.

A mesterséges intelligencia rendszerek hallucinációja valószínűleg akkor következik be, amikor egy nagy nyelvi modell képes megfigyelni olyan jellemzőket vagy tárgyakat, amelyeket még soha nem látott vagy egyáltalán nem létezett. Ennek hatására hibás kimeneti információkat generál, amelyeknek a valóságban nincs értelme, de bizonyos esetekben az általa észlelt mintákon/tárgyakon alapulnak.

Más szóval, a mesterséges intelligencia rendszerek hallucinálnak, mivel a modellek hamis állításokat tesznek, vagy a triviális mintákra és előítéletekre támaszkodnak a képzési adatokban, hogy ellentmondásos válaszokat adjanak vagy védjenek, de ez a komplexitás magasabb szintjén történik.

A mesterséges intelligencia hallucinációinak okai

Van néhány fő oka annak, hogy miért hallucinálnak a mesterséges intelligencia rendszerek:

Az adatok előítéletessége

    Hiányzó adatokat és/vagy hiányos vagy elfogult/előítéletes elemeket tartalmazó képzési adatmintákat a legtöbb modell azért hoz fel, mert a mesterséges intelligencia nem tudja megítélni az érintett igazságosságot vagy előítéletességet.

    Előfordult például, hogy az arcfelismerő algoritmusok nem voltak képesek felismerni a nem fehér arcokat – ezt az ilyen elfogultságok alapján összeállított képzési adathalmazoknak tulajdonították.

    Túlillesztés

    A mesterséges intelligencia rendszerek hallucinálásának másik oka az adatbázisban lévő túlzott információmennyiség. Az azonosított neurális hálózatokkal kapcsolatos néhány probléma az, hogy miközben tanulnak a korlátozott adathalmazban található mintákból, inkább „megjegyzik” vagy „túlillesztik” a túl zajos mintákat. Ez viszont valószínűbbé teszi, hogy hallucinálnak, amikor a képzés során tapasztaltaktól eltérő bemenetekkel találkoznak.

    Hibák felhalmozódása

    A bemeneti adatokban lévő apró hibák vagy zajok hierarchikusan feldolgozott formájukban felnagyítódnak, és például a néhány milliárd paramétert tartalmazó nagy transzformátor-modellekben ez torz vagy akár hamisított kimenetek generálásához vezethet.

    Visszacsatolási hurkok

    A hallucinációk problémája az önfelügyelt rendszerekben még súlyosbodhat is, ha nem korrigálják. Például egy mesterséges intelligencia létrehozhat egy neurális hálózaton alapuló fényképet, és egy mély hamisítással egy másik mesterséges intelligencia elhitetheti, hogy az információ valódi.

    A mesterséges intelligencia hallucinációival járó lehetséges károk

    A mesterséges intelligencia hallucinációk komoly kihívásokat jelentenek. A következő esetekre számíthatunk, ha nem foglalkoznak velük:

    Téves információ

    Az igazságtartalom hiánya a bot mesterséges intelligencia hamisító jellegével kombinálva azt jelenti, hogy hamis statisztikák és félinformációk terjedhetnek el, és torzíthatják az emberek képességét arra, hogy megbízható adatokat találjanak. Ez főként akkor aggasztó, ha a rendszereket az újságírás, az oktatás vagy a közpolitikai döntéshozatal területén használják.

    Az adatvédelem megsértése

    Az egyénekre vonatkozó, soha nem megfigyelt, érzékeny magánadatok mélyen sérthetik a magánéletet és alááshatják a bizalmat, ha az ilyen rendszereket a megfelelő feladatokban alkalmazzák, például az egészségügyben, a bűnüldözésben stb.

    A marginalizált csoportokat érő károk

    Amint azt már korábban megjegyeztük, a mesterséges intelligencia adathalmazaiban a szelekciós torzítások – jól mondható – hátrányosan megkülönböztetik a társadalmilag hátrányos helyzetű csoportokat, és még nagyobb problémává teszik a társadalmi igazságosságot.

    Biztonsági kockázatok

    A hallucinációk mesterséges intelligencia téves információkkal rendelkezik az önvezető autók vagy az orvosi diagnosztikai készülékek jegyzeteivel vagy útmutatóival kapcsolatban, ami balesetekhez, sérülésekhez vagy téves orvosi döntésekhez vezethet, mivel az ilyen mesterséges intelligencia rendszerek tökéletlen információkra támaszkodnak.

    Gazdasági költségek

    A hallucináló mesterséges intelligencia használatából származó innovációk és növekedés hiánya több létesítmény és szolgáltatásnyújtás esetében az ügyfelek bizalmának elvesztéséhez, valamint a kapcsolódó szervezetek és létesítmények értékének csökkenéséhez vezethet. Ezeknek a költségeknek kézzelfogható számot rendelni nem mindig lehetséges, de a veszélyek túl nagyok.

    A mesterséges intelligencia hallucinációinak megelőzése

    Íme, a kutatók proaktív lépései a mesterséges intelligencia hallucinációk megelőzésére:

    Elfogulatlan adatok széles köre

    Olyan képzési adathalmazok gyűjtése, amelyek nem tartalmaznak előítéleteket, és nem részesítik előnyben a társadalom egyik rétegét a másikkal szemben, segít a mesterséges intelligenciának abban, hogy jól képezze magát. A nyilvános adatbázisokat meg kell tisztítani és tényellenőrzésnek kell alávetni, hogy megakadályozzák a hamis adatok terjedését.

    Az adatok előfeldolgozása

    Az olyan intézkedések, mint a kirívó megfigyelések eltávolítása, az adatok anonimizálása, a jellemzők csökkentése stb. segíthetnek a zaj és a nem kívánt minták eltávolításában az adatokból, mielőtt a rendszerbe tápláljuk őket.

    Modellértékelés

    A mesterséges intelligencia rendszereket állandó ellenőrzésnek kell alávetni olyan új értékelő adatkészletek segítségével, amelyeket gondosan terveztek az új hallucinációk azonosítására.

    Modellfelügyelet

    A mesterséges intelligencia nem kívánt reakciójának számbavétele érdekében az olyan mechanizmusok, mint a modellkártyák vagy az adatkimutatások lehetővé tehetik a mesterséges intelligencia viselkedésének rögzítését az idő múlásával.

    Megmagyarázható mesterséges intelligencia

    Az olyan módszertanok, mint a figyelemtérképek és a SHAP-értékek segítségével megérthetjük, hogy a modellek miért jutottak erre a válaszra, valamint a véletlenszerű mintákkal összehasonlítva a mintákkal kompatibilis jellemzők alapján egyszerű elemzéseket azonosíthatunk.

    Konzervatív telepítés

    A mesterséges intelligencia rendszereket meghatározott területekre kell korlátozni, és csak korlátozottan és ellenőrzött módon kell használni, emberekkel felügyelve a használatot, amíg a mesterséges intelligencia nem bizonyul biztonságosnak, megbízhatónak és kétszer olyan tisztességesnek az emberekkel való bánásmódban.

    Annak érdekében, hogy a mesterséges intelligencia továbbra is a társadalmi előnyöket szolgálja, és megelőzze a hallucinációval járó károk veszélyét, a szervezeteknek előre szembe kell nézniük az adat- és modellminőségi problémákkal. Legyenek óvatosak és felelősek a mesterséges intelligencia hallucinációiból és a kapcsolódó tévhitekből eredő súlyos következmények elkerülése érdekében.

    Röviden, a mesterséges intelligencia hallucinációs kockázatai ellenőrizhetők, ha megfelelő stratégiákat hajtanak végre azok enyhítésére. Mindazonáltal a lehetséges negatív következmények elkerülése kitartó megfigyelést igényel a technológia fejlesztőitől és a politikai változások befolyásolóitól. Csak ilyen közös próbálkozások után lehet olyan mesterséges intelligencia rendszert kifejleszteni, amely pozitívan hat az emberekre, ugyanakkor garantálja védelmüket.

    Végezetül összeállítottuk Önnek a leggyakrabban feltett kérdéseket és az azokra adott válaszokat

    Mik a mesterséges intelligencia hallucinációk?

    A mesterséges intelligencia hallucinációk olyan esetekre utalnak, amikor a mesterséges intelligencia rendszerek hamis vagy értelmetlen információkat generálnak, gyakran az adatok vagy minták félreértelmezése miatt.

    Miért hallucinálnak a mesterséges intelligencia rendszerek?

    A mesterséges intelligencia rendszerek különböző tényezők miatt hallucinálhatnak, többek között a túlzott illeszkedés, a képzési adatok torzításai és a modell nagyfokú összetettsége miatt.

    Mennyire gyakoriak a mesterséges intelligencia hallucinációk?

    A mesterséges intelligenciában elég gyakoriak lehetnek a hallucinációk, különösen a nagyméretű nyelvi modellek és a generatív eszközök esetében, amelyeknél hiányoznak a lehetséges eredményekre vonatkozó korlátozások.

    Meg lehet-e előzni a mesterséges intelligencia hallucinációkat?

    A mesterséges intelligencia hallucinációk megelőzése magában foglalja a mesterséges intelligencia modellek egyértelmű határainak meghatározását szűrőeszközökkel és valószínűségi küszöbértékek beállításával.

    Milyen következményei vannak a mesterséges intelligencia hallucinációinak?

    A következmények a téves információk terjesztésétől a valós károkozásig terjedhetnek, mint például a téves orvosi diagnózisok.

    Hogyan befolyásolják a mesterséges intelligencia hallucinációk a mesterséges intelligencia rendszerekbe vetett bizalmat?

    A hallucinációk alááshatják a mesterséges intelligenciába vetett bizalmat, mivel megnehezítik, hogy ellenőrzés nélkül megbízzunk a rendszer kimeneteiben.

    Vannak híres példák a mesterséges intelligencia hallucinációira?

    Igen, a nevezetes példák közé tartoznak a hamis tudományos dolgozatokat generáló chatbotok, vagy az ügyfélszolgálati interakciókban valótlan információk szolgáltatása.

    A mesterséges intelligencia hallucinációk mind a nyelvi, mind a képi rendszerekben előfordulnak?

    Igen, a mesterséges intelligencia hallucinációk mind a nyelvi modellekben, mind a számítógépes látórendszerekben előfordulhatnak.

    Milyen szerepet játszanak a képzési adatok a mesterséges intelligencia hallucinációkban?

    A képzési adatok kulcsfontosságúak – az elfogult vagy nem reprezentatív adatok olyan hallucinációkhoz vezethetnek, amelyek ezeket az elfogultságokat tükrözik.

    Folyamatban van-e kutatás a mesterséges intelligencia hallucinációinak kezelésére?

    Igen, jelentős kutatások folynak a mesterséges intelligencia hallucinációinak megértésére és mérséklésére a mesterséges intelligencia rendszerek megbízhatóságának javítása érdekében.