Защо системите за изкуствен интелект халюцинират

Днес изкуственият интелект (ИИ) функционира под формата на виртуални асистенти, интелигентни домашни устройства, здравна диагностика и самоуправляващи се автомобили. Въпреки това при развитието на тази изключително важна технология възниква проблем, тъй като тя предизвиква така наречените „халюцинации на изкуствения интелект“.

Защо системите с изкуствен интелект имат халюцинации?

Казано по-просто, халюцинациите на изкуствения интелект се отнасят до случаи, в които системите за изкуствен интелект генерират или извеждат невярна информация, която не е съществувала по време на събирането на данните за обучението им. От друга страна, неуспехът при разрешаването на халюцинациите на изкуствения интелект може да доведе до проблеми като разпространяване на неверни данни и вземане на необективни решения, което води до проблеми както от икономически характер, така и от гледна точка на безопасността. Ще обясним защо системите с изкуствен интелект имат халюцинации, причините за тях и тяхното предотвратяване.

Халюцинациите на системите за изкуствен интелект е възможно да възникнат, когато голям езиков модел е в състояние да наблюдава характеристики или обекти, които никога не са били виждани или изобщо не съществуват. Това го кара да генерира неправилна изходна информация, която няма смисъл в реалния живот, но в някои случаи се основава на модели/обекти, възприети от самия него.

С други думи, системите за изкуствен интелект халюцинират, тъй като моделите правят неверни твърдения или зависят от тривиални модели и предразсъдъци в данните за обучение, за да създадат или защитят противоречиви отговори, но това се случва на по-високо ниво на сложност.

Причини за халюцинации при изкуствения интелект

Съществуват няколко основни причини, поради които системите за изкуствен интелект халюцинират:

Пристрастия към данните

Липсващите данни и/или извадките от данни за обучение, които са непълни или съдържат пристрастни/предразсъдъчни елементи, се извеждат от повечето модели, защото изкуственият интелект няма как да прецени съответната справедливост или предразсъдъчност.

Например има случаи, в които алгоритми за разпознаване на лица не са в състояние да разпознаят лица, които не са бели – това се дължи на набори от данни за обучение, които са били съставени въз основа на такива предубеждения.

Свръхприспособление

Друга причина, поради която системите за изкуствен интелект халюцинират, е прекомерната информация в тяхната база данни. Някои от проблемите, свързани с идентифицираните невронни мрежи, са, че докато се учат от моделите в този ограничен набор от данни, те могат по-скоро да „запомнят“ или да „прекалят“ с твърде шумните модели. Това, от своя страна, ги прави по-склонни да халюцинират, когато са изложени на входни данни, различни от тези, с които са се сблъскали по време на обучението.

Натрупване на грешки

Малките грешки или шумове във входните данни ще се увеличат в йерархично обработената им форма и в големи трансформаторни модели с няколко милиарда параметри например това може да доведе до генериране на изкривени или дори измислени изходи.

Цикли на обратна връзка

Проблемът с халюцинациите може дори да се усложни в самоконтролиращите се системи, ако не бъде коригиран. Например един изкуствен интелект може да създаде снимка въз основа на невронна мрежа, а дълбокият фалшификат може да накара друг изкуствен интелект да повярва, че информацията е истинска.

Възможни вреди, които идват с халюцинациите на изкуствения интелект

Халюцинациите с изкуствен интелект представляват сериозни предизвикателства. Ето следните случаи, които можем да очакваме, ако не бъдат взети мерки:

Дезинформация

Липсата на истинност, съчетана с фалшифициращия характер на изкуствения интелект на бота, означава, че фалшивите статистически данни и дезинформацията могат да станат вирусни и да нарушат способността на хората да намират надеждни данни. Това до голяма степен е обезпокоително, ако системите се използват в журналистиката, образованието или в сферата на изготвянето на публични политики.

Нарушаване на поверителността

Чувствителни частни данни за лица, които никога не са били наблюдавани, биха могли дълбоко да нарушат неприкосновеността на личния живот и да подкопаят доверието, ако такива системи се прилагат за съответните задачи, като например здравеопазване, правоприлагане и др.

Увреждане на маргинализирани групи

Както беше отбелязано по-рано, в наборите от данни за изкуствен интелект предубежденията при подбора, както добре се знае, дискриминират групите в неравностойно социално положение и превръщат социалната справедливост в още по-голям проблем.

Опасности за безопасността

Халюцинациите на изкуствения интелект имат дезинформация по отношение на бележките или ръководствата на самоуправляващите се автомобили или апаратурата за медицинска диагностика, което може да доведе до инциденти, наранявания или погрешни медицински решения, тъй като такива системи за изкуствен интелект зависят от несъвършена информация.

Икономически разходи

Липсата на иновации и растеж от използването на халюциниращ изкуствен интелект за множество съоръжения и доставки на услуги може да доведе до загуба на доверието на клиентите, както и до намаляване на стойността на свързаните организации и съоръжения. Присвояването на осезаема цифра на тези разходи не винаги е възможно, но опасностите са твърде големи.

Предотвратяване на халюцинации с изкуствен интелект

Ето активните стъпки, които изследователите предприемат за предотвратяване на халюцинациите на изкуствения интелект:

Широка гама от безпристрастни данни

Събирането на набори от данни за обучение, които не съдържат предразсъдъци и не облагодетелстват една част от обществото за сметка на друга, помага на изкуствения интелект да се обучава добре. Публичните бази данни трябва да бъдат пречиствани и проверявани за достоверност, за да се предотврати разпространението на фалшиви данни.

Предварителна обработка на данните

Мерки като премахване на очевидни наблюдения, анонимизиране на данни, намаляване на характеристиките и др. могат да помогнат за премахване на шума и нежеланите модели от данните, преди да бъдат подадени към системата.

Оценка на модела

Системите за изкуствен интелект трябва да се подлагат на постоянна проверка, като се използват нови набори от данни за оценка, които са внимателно разработени за идентифициране на нови халюцинации.

Наблюдение на модела

За да се отчете нежеланата реакция на изкуствения интелект, механизми като карти на моделите или декларации за данни могат да позволят да се запише поведението на изкуствения интелект в течение на времето.

Обясним изкуствен интелект

С помощта на методологии като карти на вниманието и стойности на SHAP може да се разбере защо моделите са стигнали до този отговор, както и да се идентифицират прости анализи въз основа на характеристики, съвместими с моделите, в сравнение със случайните модели.

Консервативно разгръщане

Системите за изкуствен интелект трябва да бъдат ограничени до конкретни области и да имат само ограничена и контролирана употреба, като хората контролират употребата, докато изкуственият интелект не докаже, че е безопасен, надежден и два пъти по-справедлив в отношението с хората.

За да помогнат на изкуствения интелект да продължи да носи ползи за обществото и да предотвратят опасността от вреди, свързани с халюцинации, организациите трябва предварително да се изправят срещу проблемите с качеството на данните и моделите. Бъдете предпазливи и отговорни в избягването на сериозните последици, които могат да възникнат от халюцинациите на изкуствения интелект и свързаните с тях заблуди.

Накратко, рисковете, свързани с халюцинациите на изкуствения интелект, могат да бъдат контролирани, ако се прилагат съответните стратегии за тяхното облекчаване. Въпреки това избягването на възможните негативни последици изисква постоянно наблюдение от страна на разработчиците на технологии и на тези, които оказват влияние върху промените в политиката. Само след като направим такива съвместни опити, можем да разработим система за изкуствен интелект, която да въздейства положително върху хората и същевременно да гарантира тяхната защита.

Накрая сме ви подготвили най-често задаваните въпроси и техните отговори

Какво представляват халюцинациите на изкуствения интелект?

Халюцинациите на изкуствения интелект се отнасят до случаите, в които системите за изкуствен интелект генерират невярна или безсмислена информация, често поради неправилно тълкуване на данни или модели.

Защо системите с изкуствен интелект халюцинират?

Системите за изкуствен интелект могат да халюцинират поради различни фактори, включително прекомерно приспособяване, отклонения в данните за обучение и голяма сложност на модела.

Колко често се срещат халюцинациите при изкуствения интелект?

Халюцинациите могат да бъдат доста често срещани при изкуствения интелект, особено при големи езикови модели и генеративни инструменти, при които липсват ограничения за възможните резултати.

Могат ли да се предотвратят халюцинациите при изкуствения интелект?

Предотвратяването на халюцинациите при изкуствения интелект включва определяне на ясни граници за моделите на изкуствения интелект с помощта на инструменти за филтриране и определяне на вероятностни прагове.

Какви са последиците от халюцинациите на изкуствения интелект?

Последствията могат да варират от разпространение на дезинформация до причиняване на реални вреди, като например неправилни медицински диагнози.

Как халюцинациите на изкуствения интелект влияят на доверието в системите с изкуствен интелект?

Халюцинациите могат да подкопаят доверието в изкуствения интелект, тъй като затрудняват разчитането на резултатите на системата без проверка.

Има ли известни примери за халюцинации при изкуствения интелект?

Да, известните примери включват чатботове, които генерират фалшиви академични трудове или предоставят невярна информация при взаимодействие с клиенти.

Халюцинациите на изкуствения интелект срещат ли се както в езикови, така и в образни системи?

Да, халюцинации на изкуствения интелект могат да възникнат както в езикови модели, така и в системи за компютърно зрение.

Каква роля играят данните за обучение в халюцинациите на изкуствения интелект?

Данните за обучение са от решаващо значение – пристрастните или непредставителни данни могат да доведат до халюцинации, които отразяват тези пристрастия.

Провеждат ли се в момента изследвания, насочени към халюцинациите при изкуствения интелект?

Да, в момента се провеждат значителни изследвания, насочени към разбирането и смекчаването на халюцинациите при изкуствения интелект, за да се подобри надеждността на системите за изкуствен интелект.