Dlaczego systemy sztucznej inteligencji mają halucynacje

Obecnie sztuczna inteligencja (AI) funkcjonuje w formie wirtualnych asystentów, inteligentnych urządzeń domowych, diagnostyki medycznej i samojezdnych samochodów. Niemniej jednak wraz z rozwojem tej krytycznej technologii pojawia się problem, ponieważ powoduje ona tak zwane „halucynacje sztucznej inteligencji”.

Dlaczego systemy sztucznej inteligencji mają halucynacje?

Mówiąc najprościej, halucynacje sztucznej inteligencji odnoszą się do przypadków generowania lub wnioskowania przez systemy sztucznej inteligencji nieprawidłowych informacji, które nie istniały podczas gromadzenia danych szkoleniowych. Z drugiej strony, nierozwiązanie halucynacji sztucznej inteligencji może skutkować problemami, takimi jak rozpowszechnianie nieprawdziwych informacji i dokonywanie stronniczych osądów, co prowadzi zarówno do problemów ekonomicznych, jak i związanych z bezpieczeństwem. Wyjaśnimy, dlaczego systemy sztucznej inteligencji mają halucynacje, jakie są ich przyczyny i jak im zapobiegać.

Halucynacje systemów sztucznej inteligencji mogą wystąpić, gdy duży model językowy jest w stanie obserwować cechy lub obiekty, które nigdy nie były widziane lub w ogóle nie istnieją. Powoduje to generowanie nieprawidłowych informacji wyjściowych, które nie mają sensu w prawdziwym życiu, ale w niektórych przypadkach opierają się na wzorcach/obiektach postrzeganych przez siebie.

Innymi słowy, systemy sztucznej inteligencji mają halucynacje, gdy modele składają fałszywe oświadczenia lub polegają na trywialnych wzorcach i uprzedzeniach w danych szkoleniowych, aby tworzyć lub bronić kontrowersyjnych odpowiedzi, ale dzieje się to na wyższym poziomie złożoności.

Przyczyny halucynacji sztucznej inteligencji

Istnieje kilka kluczowych powodów, dla których systemy sztucznej inteligencji mają halucynacje:

Błędne dane

Brakujące dane i/lub próbki danych szkoleniowych, które są niekompletne lub zawierają elementy stronnicze/uprzedzające, są przedstawiane przez większość modeli, ponieważ sztuczna inteligencja nie ma możliwości oceny uczciwości lub uprzedzeń.

Na przykład zdarzały się przypadki, w których algorytmy rozpoznawania twarzy nie były w stanie rozpoznać nie-białych twarzy – zostało to przypisane zestawom danych szkoleniowych, które zostały skompilowane w oparciu o takie uprzedzenia.

Nadmierne dopasowanie

Nadmiar informacji w bazie danych to kolejny powód, dla którego systemy sztucznej inteligencji mają halucynacje. Niektóre z kwestii dotyczących zidentyfikowanych sieci neuronowych polegają na tym, że podczas uczenia się na podstawie wzorców w tym ograniczonym zbiorze danych, mogą one raczej „zapamiętywać” lub „nadmiernie dopasowywać” zbyt hałaśliwe wzorce. To z kolei zwiększa prawdopodobieństwo halucynacji, gdy są narażone na dane wejściowe inne niż te, które napotkały podczas treningu.

Kumulacja błędów

Małe błędy lub szumy w danych wejściowych zostaną powiększone w ich hierarchicznie przetworzonej formie, a w dużych modelach transformatorów z kilkoma miliardami parametrów może to na przykład prowadzić do generowania zniekształconych lub nawet sfabrykowanych danych wyjściowych.

Pętle sprzężenia zwrotnego

Problem halucynacji może nawet narastać w systemach samonadzorujących, jeśli nie zostanie skorygowany. Na przykład, sztuczna inteligencja może stworzyć zdjęcie w oparciu o sieć neuronową, a deepfake może sprawić, że inna sztuczna inteligencja uwierzy, że informacje są prawdziwe.

Możliwe szkody związane z halucynacjami sztucznej inteligencji

Halucynacje sztucznej inteligencji stanowią poważne wyzwanie. Oto następujące przypadki, których możemy się spodziewać, jeśli nie zostaną rozwiązane:

Dezinformacja

Brak prawdomówności w połączeniu z fałszerskim charakterem sztucznej inteligencji botów oznacza, że fałszywe statystyki i dezinformacje mogą rozprzestrzeniać się wirusowo i zniekształcać zdolność ludzi do znajdowania wiarygodnych danych. Jest to bardzo niepokojące, jeśli systemy te są wykorzystywane w dziennikarstwie, edukacji lub domenach kształtowania polityki publicznej.

Naruszenie prywatności

Wrażliwe prywatne dane o osobach, które nigdy nie były obserwowane, mogą głęboko naruszać prywatność i podważać zaufanie, jeśli takie systemy są stosowane do odpowiednich zadań, takich jak opieka zdrowotna, egzekwowanie prawa itp.

Szkody dla zmarginalizowanych grup

Jak już wcześniej wspomniano, w zbiorach danych sztucznej inteligencji błędy selekcji dyskryminują grupy znajdujące się w niekorzystnej sytuacji społecznej i sprawiają, że sprawiedliwość społeczna staje się jeszcze większym problemem.

Zagrożenia dla bezpieczeństwa

Sztuczna inteligencja ma błędne informacje dotyczące notatek lub przewodników w samojezdnych samochodach lub medycznej aparaturze diagnostycznej, co może prowadzić do wypadków, obrażeń lub błędnych decyzji medycznych, ponieważ takie systemy sztucznej inteligencji zależą od niedoskonałych informacji.

Koszty ekonomiczne

Brak innowacji i wzrostu wynikającego z wykorzystania sztucznej inteligencji w wielu obiektach i świadczeniu usług może prowadzić do utraty zaufania klientów, a także zmniejszenia wartości powiązanych organizacji i obiektów. Przypisanie tych kosztów do konkretnej liczby nie zawsze jest możliwe, ale niebezpieczeństwo jest zbyt duże.

Zapobieganie halucynacjom sztucznej inteligencji

Oto proaktywne kroki podejmowane przez badaczy w celu zapobiegania halucynacjom sztucznej inteligencji:

Szeroki zakres bezstronnych danych

Gromadzenie zestawów danych szkoleniowych, które nie zawierają uprzedzeń ani nie faworyzują jednej części społeczeństwa nad inną, pomaga sztucznej inteligencji dobrze się szkolić. Publiczne bazy danych muszą być czyszczone i sprawdzane pod kątem faktów, aby zapobiec rozprzestrzenianiu się fałszywych danych.

Wstępne przetwarzanie danych

Środki takie jak usuwanie rażących obserwacji, anonimizacja danych, redukcja cech itp. mogą pomóc w wyeliminowaniu szumów i niepożądanych wzorców z danych przed wprowadzeniem ich do systemu.

Ocena modelu

Systemy sztucznej inteligencji powinny być poddawane ciągłemu sprawdzaniu przy użyciu nowych zestawów danych ewaluacyjnych, które są starannie zaprojektowane w celu identyfikacji nowych halucynacji.

Monitorowanie modelu

Aby uwzględnić niepożądaną reakcję sztucznej inteligencji, mechanizmy takie jak karty modeli lub zestawienia danych mogą umożliwić rejestrowanie zachowania sztucznej inteligencji w czasie.

Wyjaśnialna sztuczna inteligencja

Korzystając z metodologii takich jak mapy uwagi i wartości SHAP, można zrozumieć, dlaczego modele wymyśliły taką reakcję, a także zidentyfikować proste analizy oparte na cechach zgodnych z wzorcami w porównaniu z przypadkowymi wzorcami.

Konserwatywne wdrażanie

Systemy sztucznej inteligencji powinny być ograniczone do określonych dziedzin i mieć jedynie ograniczone i kontrolowane zastosowanie z ludźmi nadzorującymi ich użycie, dopóki sztuczna inteligencja nie okaże się bezpieczna, niezawodna i dwukrotnie bardziej sprawiedliwa w traktowaniu z ludźmi.

Aby pomóc sztucznej inteligencji w dalszym czerpaniu korzyści społecznych i zapobiec niebezpieczeństwu szkód związanych z halucynacjami, organizacje powinny z wyprzedzeniem stawić czoła problemom związanym z jakością danych i modeli. Należy być ostrożnym i odpowiedzialnym w unikaniu poważnych konsekwencji, które mogą wynikać z halucynacji sztucznej inteligencji i związanych z nimi błędów.

Krótko mówiąc, ryzyko związane z halucynacjami sztucznej inteligencji może być kontrolowane, jeśli wdrożone zostaną odpowiednie strategie ich łagodzenia. Niemniej jednak, unikanie możliwych negatywnych skutków wymaga ciągłej obserwacji ze strony twórców technologii i osób wpływających na zmiany w polityce. Tylko po podjęciu takich wspólnych prób możemy opracować system sztucznej inteligencji, który pozytywnie wpływa na ludzi, jednocześnie gwarantując ich ochronę.

Na koniec przygotowaliśmy dla Was najczęściej zadawane pytania i odpowiedzi na nie

Czym są halucynacje sztucznej inteligencji?

Halucynacje sztucznej inteligencji odnoszą się do przypadków, w których systemy sztucznej inteligencji generują fałszywe lub bezsensowne informacje, często z powodu błędnej interpretacji danych lub wzorców.

Dlaczego systemy sztucznej inteligencji mają halucynacje?

Systemy sztucznej inteligencji mogą mieć halucynacje z powodu różnych czynników, w tym nadmiernego dopasowania, błędów w danych szkoleniowych i dużej złożoności modelu.

Jak powszechne są halucynacje związane ze sztuczną inteligencją?

Halucynacje mogą być dość powszechne w sztucznej inteligencji, zwłaszcza w dużych modelach językowych i narzędziach generatywnych, które nie mają ograniczeń co do możliwych wyników.

Czy można zapobiec halucynacjom w sztucznej inteligencji?

Zapobieganie halucynacjom sztucznej inteligencji polega na definiowaniu jasnych granic dla modeli sztucznej inteligencji za pomocą narzędzi filtrujących i ustalaniu progów probabilistycznych.

Jakie są konsekwencje halucynacji sztucznej inteligencji?

Konsekwencje mogą wahać się od rozpowszechniania dezinformacji do powodowania rzeczywistych szkód, takich jak nieprawidłowe diagnozy medyczne.

Jak halucynacje sztucznej inteligencji wpływają na zaufanie do systemów sztucznej inteligencji?

Halucynacje mogą podważyć zaufanie do sztucznej inteligencji, ponieważ utrudniają poleganie na wynikach systemu bez weryfikacji.

Czy istnieją jakieś znane przykłady halucynacji sztucznej inteligencji?

Tak, godne uwagi przykłady obejmują chatboty generujące fałszywe prace naukowe lub dostarczające nieprawidłowych informacji w interakcjach z obsługą klienta.

Czy halucynacje sztucznej inteligencji występują zarówno w systemach językowych, jak i graficznych?

Tak, halucynacje związane ze sztuczną inteligencją mogą występować zarówno w modelach językowych, jak i komputerowych systemach wizyjnych.

Jaką rolę odgrywają dane treningowe w halucynacjach sztucznej inteligencji?

Dane treningowe mają kluczowe znaczenie – tendencyjne lub niereprezentatywne dane mogą prowadzić do halucynacji, które odzwierciedlają te tendencje.

Czy trwają badania nad halucynacjami sztucznej inteligencji?

Tak, istnieją znaczące badania skupiające się na zrozumieniu i łagodzeniu halucynacji sztucznej inteligencji w celu poprawy niezawodności systemów sztucznej inteligencji.