Чому системи штучного інтелекту викликають галюцинації

Сьогодні штучний інтелект (ШІ) функціонує у вигляді віртуальних помічників, пристроїв для розумного дому, медичної діагностики та безпілотних автомобілів. Проте з розвитком цієї критично важливої технології виникає проблема, оскільки вона викликає так звані «галюцинації штучного інтелекту».

Чому системи штучного інтелекту галюцинують?

Простіше кажучи, галюцинації штучного інтелекту – це випадки, коли системи штучного інтелекту генерують або виводять невірну інформацію, яка не існувала під час збору навчальних даних. З іншого боку, нездатність вирішити проблему галюцинацій штучного інтелекту може призвести до таких проблем, як поширення неправдивої інформації та винесення упереджених суджень, що загрожує як економіці, так і безпеці. Ми пояснимо, чому системи штучного інтелекту галюцинують, які причини цього явища та як йому запобігти.

Галюцинації систем штучного інтелекту можуть виникати, коли велика мовна модель здатна спостерігати риси або об’єкти, які ніколи не бачила або взагалі не існує. Це призводить до того, що вона генерує неправильну вихідну інформацію, яка не має сенсу в реальному житті, але в деяких випадках базується на шаблонах/об’єктах, сприйнятих нею самою.

Іншими словами, системи штучного інтелекту галюцинують, коли моделі роблять неправдиві твердження або залежать від тривіальних шаблонів і упереджень у навчальних даних, щоб виробляти або захищати суперечливі відповіді, але це відбувається на більш високому рівні складності.

Причини галюцинацій штучного інтелекту

Існує кілька ключових причин, чому системи штучного інтелекту галюцинують:

Упередженість даних

Відсутні дані та/або навчальні вибірки даних, які є неповними або містять упереджені/упереджені елементи, висуваються більшістю моделей, оскільки штучний інтелект не має можливості судити про справедливість або упередженість цих даних.

Наприклад, були випадки, коли алгоритми розпізнавання облич не могли розпізнати небілі обличчя – це було пов’язано з навчальними наборами даних, які були складені на основі таких упереджень.

Перенавчання

Надлишок інформації в базі даних – ще одна причина, чому системи штучного інтелекту галюцинують. Деякі з проблем ідентифікованих нейронних мереж полягають у тому, що, навчаючись на шаблонах у цьому обмеженому наборі даних, вони можуть швидше «запам’ятовувати» або «підлаштовуватися» під занадто зашумлені шаблони. Це, в свою чергу, робить їх більш схильними до галюцинацій, коли вони піддаються впливу вхідних даних, відмінних від тих, з якими вони стикалися під час навчання.

Накопичення помилок

Невеликі помилки або шум у вхідних даних будуть збільшуватися в ієрархічно обробленій формі, а у великих трансформаторних моделях з кількома мільярдами параметрів, наприклад, це може призвести до генерації спотворених або навіть сфабрикованих вихідних даних.

Петлі зворотного зв’язку

Проблема галюцинацій може навіть ускладнитися в системах з самоконтролем, якщо її не виправити. Наприклад, штучний інтелект може створити фотографію на основі нейронної мережі, а глибокий фейк може змусити інший штучний інтелект повірити, що інформація реальна.

Можлива шкода від галюцинацій штучного інтелекту

Галюцинації штучного інтелекту створюють серйозні проблеми. Ось що може статися, якщо не вжити заходів:

Дезінформація

Відсутність правдивості в поєднанні зі здатністю штучного інтелекту ботів до підробки означає, що фейкова статистика і дезінформація можуть стати вірусними і спотворити здатність людей знаходити достовірні дані. Це викликає особливе занепокоєння, якщо системи використовуються в журналістиці, освіті або у сфері формування державної політики.

Порушення права на приватність

Чутливі приватні дані про людей, які ніколи не спостерігалися, можуть серйозно порушити приватність і підірвати довіру, якщо такі системи застосовуються для виконання відповідних завдань, таких як охорона здоров’я, охорона правопорядку і т.д.

Шкода маргіналізованим групам

Як зазначалося раніше, в наборах даних штучного інтелекту упередженість відбору, як відомо, дискримінує соціально незахищені групи і перетворює соціальну справедливість на ще більшу проблему.

Загрози безпеці

Галюцинації штучного інтелекту мають дезінформацію щодо інструкцій або посібників на самокерованих автомобілях або медичних діагностичних апаратах, що може призвести до нещасних випадків, травм або неправильних медичних рішень, оскільки такі системи штучного інтелекту залежать від недосконалої інформації.

Економічні витрати

Відсутність інновацій та зростання від використання штучного інтелекту, що викликає галюцинації, на різних об’єктах і в різних сферах надання послуг може призвести до втрати довіри клієнтів, а також до зниження вартості пов’язаних з ним організацій та об’єктів. Визначити відчутну цифру цих витрат не завжди можливо, але небезпека надто велика.

Запобігання галюцинаціям штучного інтелекту

Ось проактивні кроки, які дослідники вживають для запобігання галюцинацій штучного інтелекту:

Широкий спектр неупереджених даних

Збір навчальних наборів даних, які не містять упереджень і не надають перевагу одній частині суспільства над іншою, допомагає штучному інтелекту добре навчатися. Загальнодоступні бази даних потребують очищення та перевірки фактів, щоб запобігти поширенню фальшивих даних.

Попередня обробка даних

Такі заходи, як видалення кричущих спостережень, анонімізація даних, зменшення кількості ознак тощо, можуть допомогти усунути шум і небажані закономірності з даних перед подачею в систему.

Оцінка моделі

Системи штучного інтелекту повинні піддаватися постійній перевірці з використанням нових оціночних наборів даних, ретельно розроблених для виявлення нових галюцинацій.

Моніторинг моделі

Для обліку небажаної реакції штучного інтелекту, такі механізми, як картки моделі або звіти даних, можуть дозволити записати поведінку штучного інтелекту протягом певного часу.

Пояснюваний штучний інтелект

Використовуючи такі методології, як карти уваги та SHAP-значення, можна зрозуміти, чому моделі реагують саме так, а також провести простий аналіз на основі ознак, сумісних із шаблонами, порівняно з випадковими шаблонами.

Консервативне розгортання

Системи штучного інтелекту повинні бути обмежені конкретними областями і мати лише обмежене і контрольоване використання під наглядом людини, поки штучний інтелект не доведе, що він безпечний, надійний і вдвічі справедливіший у поводженні з людьми.

Щоб допомогти штучному інтелекту продовжувати приносити користь суспільству і запобігти небезпеці шкоди, пов’язаної з галюцинаціями, організаціям слід заздалегідь вирішувати проблеми з якістю даних і моделей. Будьте обережні і відповідальні, щоб уникнути серйозних наслідків, які можуть виникнути через галюцинації штучного інтелекту і пов’язані з ними помилки.

Коротше кажучи, ризики галюцинацій штучного інтелекту можна контролювати, якщо впроваджувати відповідні стратегії для їх зменшення. Тим не менш, уникнення можливих негативних наслідків вимагає постійного спостереження з боку розробників технологій і тих, хто впливає на зміни в політиці. Лише зробивши такі спільні спроби, ми зможемо розробити систему штучного інтелекту, яка позитивно впливатиме на людей і водночас гарантуватиме їхній захист.

Наостанок ми підготували для вас найпоширеніші запитання та відповіді на них

Що таке галюцинації штучного інтелекту?

Галюцинації штучного інтелекту – це випадки, коли системи штучного інтелекту генерують неправдиву або безглузду інформацію, часто через неправильну інтерпретацію даних або шаблонів.

Чому системи штучного інтелекту галюцинують?

Системи штучного інтелекту можуть галюцинувати через різні фактори, включаючи надмірне налаштування, упередженість навчальних даних і високу складність моделі.

Наскільки поширені галюцинації штучного інтелекту?

Галюцинації можуть бути досить поширеним явищем у штучному інтелекті, особливо у великих мовних моделях і генеративних інструментах, які не мають обмежень на можливі результати.

Чи можна запобігти галюцинаціям штучного інтелекту?

Запобігання галюцинаціям штучного інтелекту передбачає визначення чітких меж для моделей штучного інтелекту за допомогою інструментів фільтрації та встановлення імовірнісних порогів.

Які наслідки можуть мати галюцинації штучного інтелекту?

Наслідки можуть варіюватися від поширення дезінформації до заподіяння реальної шкоди, наприклад, неправильного медичного діагнозу.

Як галюцинації штучного інтелекту впливають на довіру до систем штучного інтелекту?

Галюцинації можуть підірвати довіру до штучного інтелекту, оскільки через них важко покладатися на результати роботи системи без перевірки.

Чи є відомі приклади галюцинацій штучного інтелекту?

Так, серед відомих прикладів – чат-боти, які генерують фальшиві наукові роботи або надають невірну інформацію під час взаємодії з клієнтами у сфері обслуговування.

Чи трапляються галюцинації штучного інтелекту в мовних і графічних системах?

Так, галюцинації штучного інтелекту можуть виникати як у мовних моделях, так і в системах комп’ютерного зору.

Яку роль відіграють навчальні дані в галюцинаціях штучного інтелекту?

Навчальні дані мають вирішальне значення – упереджені або нерепрезентативні дані можуть призвести до галюцинацій, які відображають ці упередження.

Чи проводяться дослідження, спрямовані на вирішення проблеми галюцинацій штучного інтелекту?

Так, проводяться значні дослідження, спрямовані на розуміння і пом’якшення галюцинацій штучного інтелекту з метою підвищення надійності систем штучного інтелекту.