Warum lassen sie Systeme mit künstlicher Intelligenz halluzinieren
Künstliche Intelligenz (KI) wird heute in Form von virtuellen Assistenten, intelligenten Haushaltsgeräten, Gesundheitsdiagnosen und selbstfahrenden Autos eingesetzt. Dennoch gibt es ein Problem bei der Entwicklung dieser wichtigen Technologie, denn sie verursacht so genannte „Halluzinationen der künstlichen Intelligenz“.
Warum lassen sie künstliche Intelligenzsysteme halluzinieren?
Vereinfacht gesagt, beziehen sich Halluzinationen künstlicher Intelligenz auf Fälle, in denen Systeme künstlicher Intelligenz falsche Informationen generieren oder ableiten, die während ihrer Trainingsdatenerfassung nicht vorhanden waren. Andererseits kann die Nichtbehebung von Halluzinationen künstlicher Intelligenz zu Problemen wie der Verbreitung von Unwahrheiten und voreingenommenen Urteilen führen, was sowohl wirtschaftliche als auch sicherheitstechnische Probleme mit sich bringt. Wir werden erklären, warum Systeme der künstlichen Intelligenz halluzinieren, was die Ursachen sind und wie man sie verhindern kann.
Halluzinationen bei Systemen der künstlichen Intelligenz treten auf, wenn ein umfangreiches Sprachmodell in der Lage ist, Merkmale oder Objekte zu erkennen, die nie gesehen wurden oder überhaupt nicht existieren. Dies führt dazu, dass es falsche Ausgabeinformationen erzeugt, die im wirklichen Leben keinen Sinn ergeben, aber in einigen Fällen auf von ihm selbst wahrgenommenen Mustern/Objekten beruhen.
Mit anderen Worten: Systeme der künstlichen Intelligenz halluzinieren, wenn Modelle falsche Aussagen machen oder sich auf triviale Muster und Vorurteile in den Trainingsdaten stützen, um umstrittene Antworten zu produzieren oder zu verteidigen, aber dies geschieht auf einer höheren Komplexitätsebene.
Ursachen für Halluzinationen bei künstlicher Intelligenz
Es gibt einige Hauptgründe, warum Systeme der künstlichen Intelligenz halluzinieren:
Datenverzerrungen
Fehlende Daten und/oder Trainingsdaten, die unvollständig sind oder voreingenommene/vorurteilsbehaftete Elemente enthalten, werden von den meisten Modellen vorgebracht, da die künstliche Intelligenz keine Möglichkeit hat, die Fairness oder Voreingenommenheit zu beurteilen.
So gab es beispielsweise Fälle, in denen Gesichtserkennungsalgorithmen nicht in der Lage waren, nicht-weiße Gesichter zu erkennen – dies wurde auf Trainingsdatensätze zurückgeführt, die auf der Grundlage solcher Vorurteile zusammengestellt wurden.
Überanpassung
Ein weiterer Grund, warum Systeme der künstlichen Intelligenz halluzinieren, sind zu viele Informationen in ihrer Datenbank. Einige der Probleme im Zusammenhang mit den identifizierten neuronalen Netzen bestehen darin, dass sie sich beim Lernen von Mustern in diesem begrenzten Datensatz eher zu verrauschte Muster „merken“ oder „überanpassen“ können. Dies wiederum macht es wahrscheinlicher, dass sie halluzinieren, wenn sie anderen Eingaben ausgesetzt sind als denen, die sie während des Trainings erhalten haben.
Fehlerakkumulation
Kleine Fehler oder Rauschen in den Eingabedaten werden in ihrer hierarchisch verarbeiteten Form vergrößert und können z. B. bei großen Transformatormodellen mit einigen Milliarden Parametern zur Erzeugung verzerrter oder sogar gefälschter Ergebnisse führen.
Rückkopplungsschleifen
Das Problem der Halluzinationen kann sich in selbstüberwachten Systemen noch verstärken, wenn es nicht korrigiert wird. So kann eine künstliche Intelligenz beispielsweise ein Foto auf der Grundlage eines neuronalen Netzes erstellen, und ein Deepfake kann eine andere künstliche Intelligenz dazu bringen, die Informationen für echt zu halten.
Mögliche Schäden, die durch Halluzinationen künstlicher Intelligenz entstehen
Halluzinationen durch künstliche Intelligenz stellen eine große Herausforderung dar. Hier sind die folgenden Fälle, die wir erwarten können, wenn sie nicht behoben werden:
Fehlinformationen
Mangelnde Wahrhaftigkeit in Verbindung mit der Fälschungsnatur der künstlichen Bot-Intelligenz bedeutet, dass sich gefälschte Statistiken und Fehlinformationen verbreiten und die Fähigkeit der Menschen, zuverlässige Daten zu finden, beeinträchtigen können. Dies ist besonders besorgniserregend, wenn die Systeme im Journalismus, im Bildungswesen oder in der öffentlichen Politik eingesetzt werden.
Verletzung der Privatsphäre
Sensible private Daten über Einzelpersonen, die nie beobachtet wurden, könnten die Privatsphäre tiefgreifend verletzen und das Vertrauen untergraben, wenn solche Systeme für die entsprechenden Aufgaben eingesetzt werden, z. B. im Gesundheitswesen, bei der Strafverfolgung usw.
Schädigung von Randgruppen
Wie bereits erwähnt, sind Selektionsfehler in Datensätzen der künstlichen Intelligenz durchaus geeignet, sozial benachteiligte Gruppen zu diskriminieren und die soziale Gerechtigkeit zu einem noch größeren Problem zu machen.
Gefahren für die Sicherheit
Da künstliche Intelligenz auf unvollkommene Informationen angewiesen ist, kann es bei selbstfahrenden Autos oder medizinischen Diagnosegeräten zu Unfällen, Verletzungen oder falschen medizinischen Entscheidungen kommen.
Wirtschaftliche Kosten
Fehlende Innovationen und fehlendes Wachstum durch den Einsatz halluzinierender künstlicher Intelligenz für mehrere Einrichtungen und Dienstleistungen könnten zu einem Vertrauensverlust bei den Kunden sowie zu einer Wertminderung der damit verbundenen Organisationen und Einrichtungen führen. Eine konkrete Bezifferung dieser Kosten ist nicht immer möglich, aber die Gefahren sind zu groß.
Verhinderung von Halluzinationen durch künstliche Intelligenz
Hier sind die proaktiven Schritte, die Forscher zur Verhinderung von Halluzinationen durch künstliche Intelligenz unternehmen:
Breites Spektrum an unvoreingenommenen Daten
Das Sammeln von Trainingsdaten, die keine Vorurteile enthalten oder einen Teil der Gesellschaft gegenüber anderen bevorzugen, hilft der künstlichen Intelligenz, sich selbst gut zu trainieren. Öffentliche Datenbanken müssen gesäubert und auf Fakten geprüft werden, um die Verbreitung gefälschter Daten zu verhindern.
Vorverarbeitung von Daten
Maßnahmen wie das Entfernen auffälliger Beobachtungen, die Anonymisierung von Daten, die Reduzierung von Merkmalen usw. können helfen, Rauschen und unerwünschte Muster aus den Daten zu entfernen, bevor sie in das System eingespeist werden.
Modellbewertung
Systeme der künstlichen Intelligenz sollten einer ständigen Überprüfung unterzogen werden, indem neue Bewertungsdatensätze verwendet werden, die sorgfältig darauf ausgelegt sind, neue Halluzinationen zu erkennen.
Modell-Überwachung
Um die unerwünschten Reaktionen einer künstlichen Intelligenz zu erklären, können Mechanismen wie Modellkarten oder Datenstatements es ermöglichen, das Verhalten der künstlichen Intelligenz im Laufe der Zeit aufzuzeichnen.
Erklärbare künstliche Intelligenz
Mithilfe von Methoden wie Aufmerksamkeitskarten und SHAP-Werten kann man verstehen, warum die Modelle zu dieser Reaktion gekommen sind, und einfache Analysen auf der Grundlage von Merkmalen durchführen, die mit Mustern im Vergleich zu Zufallsmustern kompatibel sind.
Konservativer Einsatz
Systeme der künstlichen Intelligenz sollten auf bestimmte Bereiche beschränkt sein und nur in begrenztem und kontrolliertem Umfang eingesetzt werden, wobei der Einsatz von Menschen überwacht werden sollte, bis sich die künstliche Intelligenz als sicher und zuverlässig erweist und doppelt so fair behandelt wird wie der Mensch.
Damit künstliche Intelligenz auch weiterhin gesellschaftlichen Nutzen stiftet und die Gefahr von Schäden durch Halluzinationen vermieden wird, sollten sich Unternehmen im Vorfeld mit Problemen der Daten- und Modellqualität auseinandersetzen. Seien Sie vorsichtig und verantwortungsbewusst, um schwerwiegende Folgen zu vermeiden, die sich aus Halluzinationen der künstlichen Intelligenz und damit verbundenen Irrtümern ergeben können.
Kurz gesagt, die Risiken von Halluzinationen durch künstliche Intelligenz lassen sich beherrschen, wenn entsprechende Strategien zur Abschwächung dieser Risiken umgesetzt werden. Die Vermeidung möglicher negativer Folgen erfordert jedoch eine beharrliche Beobachtung seitens der Technologieentwickler und derjenigen, die Einfluss auf politische Veränderungen nehmen. Nur wenn wir solche gemeinsamen Anstrengungen unternehmen, können wir ein System der künstlichen Intelligenz entwickeln, das sich positiv auf die Menschen auswirkt und gleichzeitig ihren Schutz gewährleistet.
Abschließend haben wir für Sie die am häufigsten gestellten Fragen und ihre Antworten zusammengestellt
Was sind Halluzinationen durch künstliche Intelligenz?
Unter Halluzinationen im Bereich der künstlichen Intelligenz versteht man Fälle, in denen Systeme der künstlichen Intelligenz falsche oder unsinnige Informationen erzeugen, die häufig auf eine Fehlinterpretation von Daten oder Mustern zurückzuführen sind.
Warum halluzinieren Systeme der künstlichen Intelligenz?
Systeme der künstlichen Intelligenz können aufgrund verschiedener Faktoren halluzinieren, z. B. aufgrund von Überanpassung, Verzerrungen in den Trainingsdaten und hoher Modellkomplexität.
Wie häufig sind Halluzinationen bei künstlicher Intelligenz?
Halluzinationen können bei künstlicher Intelligenz recht häufig vorkommen, vor allem bei großen Sprachmodellen und generativen Werkzeugen, bei denen es keine Beschränkungen für mögliche Ergebnisse gibt.
Können Halluzinationen bei künstlicher Intelligenz verhindert werden?
Um Halluzinationen im Bereich der künstlichen Intelligenz zu verhindern, müssen klare Grenzen für Modelle der künstlichen Intelligenz mit Hilfe von Filterwerkzeugen definiert und probabilistische Schwellenwerte festgelegt werden.
Was sind die Folgen von Halluzinationen durch künstliche Intelligenz?
Die Folgen können von der Verbreitung von Fehlinformationen bis hin zur Verursachung von Schäden in der realen Welt reichen, z. B. durch falsche medizinische Diagnosen.
Wie wirken sich Halluzinationen künstlicher Intelligenz auf das Vertrauen in Systeme künstlicher Intelligenz aus?
Halluzinationen können das Vertrauen in künstliche Intelligenz untergraben, da sie es erschweren, sich ohne Überprüfung auf die Ergebnisse des Systems zu verlassen.
Gibt es berühmte Beispiele für Halluzinationen bei künstlicher Intelligenz?
Ja, bemerkenswerte Beispiele sind Chatbots, die gefälschte akademische Abhandlungen erstellen oder falsche Informationen im Kundendienst liefern.
Treten Halluzinationen durch künstliche Intelligenz sowohl bei Sprach- als auch bei Bildsystemen auf?
Ja, Halluzinationen durch künstliche Intelligenz können sowohl bei Sprachmodellen als auch bei Computer-Vision-Systemen auftreten.
Welche Rolle spielen die Trainingsdaten bei Halluzinationen durch künstliche Intelligenz?
Trainingsdaten sind entscheidend – verzerrte oder nicht repräsentative Daten können zu Halluzinationen führen, die diese Verzerrungen widerspiegeln.
Gibt es laufende Forschungsarbeiten zum Thema Halluzinationen bei künstlicher Intelligenz?
Ja, es gibt umfangreiche Forschungsarbeiten zum Verständnis und zur Abschwächung von Halluzinationen bei künstlicher Intelligenz, um die Zuverlässigkeit von Systemen der künstlichen Intelligenz zu verbessern.