www.wikidata.de-de.nina.az
Im Bereich der Kunstlichen Intelligenz KI ist eine Halluzination alternativ auch Konfabulation genannt ein uberzeugend formuliertes Resultat einer KI das nicht durch Trainingsdaten gerechtfertigt zu sein scheint und objektiv falsch sein kann 1 Solche Phanomene werden in Analogie zum Phanomen der Halluzination in der menschlichen Psychologie als von Chatbots erzeugte KI Halluzinationen bezeichnet Ein wichtiger Unterschied ist dass menschliche Halluzinationen meist auf falschen Wahrnehmungen der menschlichen Sinne beruhen wahrend eine KI Halluzination ungerechtfertigte Resultate als Text oder Bild erzeugt Prabhakar Raghavan Leiter von Google Search beschrieb Halluzinationen von Chatbots als uberzeugend formulierte aber weitgehend erfundene Resultate 2 Der spezifische Begriff KI Halluzination kann Computer unangemessen vermenschlichen Inhaltsverzeichnis 1 Vorkommen 2 Ursachen 3 Vermeidung 4 Siehe auch 5 Weblinks 6 EinzelnachweiseVorkommen BearbeitenKI Halluzinationen erlangten um 2022 parallel zur Einfuhrung bestimmter grosser Sprachmodelle Large Language Model LLM wie ChatGPT an Bedeutung 3 Die Nutzer beschwerten sich dass solche Chatbots oft sinnlos plausible klingende Zufallslugen in ihren generierten Inhalten einbetteten Als beispielsweise ChatGPT gebeten wurde einen Artikel uber das letzte Finanzquartal eines bestimmten Unternehmens zu generieren erstellte dieser Chatbot einen koharenten Artikel erfand aber darin enthaltene Finanzzahlen Nach Fragen uber astrophysikalische Magnetfelder behauptete ChatGPT falschlicherweise dass Magnetfelder von Schwarzen Lochern durch die extrem starken Gravitationskrafte in ihrer Nahe erzeugt werden In Wirklichkeit hat ein Schwarzes Loch aufgrund des No Hair Theorems kein Magnetfeld 4 Analysten betrachten haufige Halluzinationen als ein grosses Problem der LLM Technik 5 Ursachen BearbeitenForscher haben unerwunschte Halluzinationen als ein statistisches Phanomen bezeichnet oder Halluzinationen auf unzureichende Trainingsdaten zuruckgefuhrt Einige Kenner glauben dass bestimmte falsche KI Antworten die von Menschen als Halluzinationen im Fall der Objekterkennung eingestuft werden tatsachlich durch die Trainingsdaten gerechtfertigt sein konnen oder sogar dass eine KI die richtige Antwort gibt welche die menschlichen Gutachter nicht sehen Zum Beispiel kann ein umstrittenes Bild das fur einen Menschen wie ein gewohnliches Bild eines Hundes aussieht in Wirklichkeit fur die KI Muster enthalten die in authentischen Bildern nur beim Betrachten einer Katze auftreten wurden Die KI erkennt reale visuelle Muster welche fur Menschen nicht zu erkennen sind Diese Erkenntnisse wurden jedoch von anderen Forschern in Frage gestellt Zum Beispiel wurde eingewandt dass die Modelle zu oberflachlichen Statistiken tendieren konnen was dazu fuhrt dass Training bei umstrittenen Themen in realen Szenarien nicht robust ist Halluzination wurde als statistisch unvermeidliches Nebenprodukt eines jeden unvollkommenen generativen Modells erkannt das darauf trainiert ist die Trainingswahrscheinlichkeit zu maximieren wie zum Beispiel GPT 3 Ebenfalls konnen Fehler beim Kodieren und Dekodieren zwischen Text und Reprasentationen Halluzinationen verursachen KI Training zur Erzeugung von vielfaltigen Antworten kann auch zu Halluzinationen fuhren Halluzinationen konnen ebenfalls auftreten wenn die KI auf einem Datensatz trainiert wird bei dem beschriftete Zusammenfassungen trotz ihrer faktischen Genauigkeit nicht direkt in den beschrifteten Daten verankert sind die angeblich zusammengefasst werden Grossere Datensatze konnen ein Problem des parametrischen Wissens schaffen Wissen das in gelernten Systemparametern fixiert ist was zu Halluzinationen fuhrt wenn das System zu selbstsicher sein festgelegtes Wissen nutzt 6 In Systemen wie GPT 3 generiert eine KI jedes nachste Wort basierend auf einer Sequenz von vorherigen Wortern einschliesslich der Worter die sie selbst wahrend desselben Dialogs zuvor generiert hat was zu einer Kaskade von moglichen Halluzinationen fuhrt je langer die Antwort wird 7 Vermeidung BearbeitenZur Reduktion von KI Halluzinationen wird zusatzliches aktives Lernen wie zum Beispiel Bestarkendes Lernen aus menschlich beeinflusster Ruckkopplung bei GPT 4 verwendet Auch hat Google Bard eine neue Funktion eingefuhrt mittels welcher Teile im Text orange markiert werden deren Aussagen unsicher sind 8 Ob sich jedoch alle erwahnten Probleme losen lassen ist fraglich 9 Siehe auch BearbeitenBestarkendes Lernen ChatGPT Reinforcement learning from human feedback KI AusrichtungWeblinks BearbeitenMerriam Webster We Added 690 New Words to the Dictionary for September 2023 hallucination noun 3 a plausible but false or misleading response generated by an artificial intelligence algorithm Einzelnachweise Bearbeiten Craig S Smith AI Hallucinations Could Blunt ChatGPT s Success In IEEE Spectrum 24 Marz 2023 Abgerufen am 24 September 2023 englisch Google cautions against hallucinating chatbots report says Reuters 11 Februar 2023 Abgerufen am 24 September 2023 englisch Christian J Meier Warum die KI so gerne lugt Suddeutsche Zeitung 28 Marz 2023 Abgerufen am 24 September 2023 Marc Zastrow We Asked ChatGPT Your Questions About Astronomy It Didn t Go so Well In Discover Magazine Kalmbach Publishing Co 29 Dezember 2022 Abgerufen am 24 September 2023 englisch Ziwie Ji et al Survey of hallucination in natural language generation ACM Computing Surveys 55 12 S 1 38 2023 Stephen Casper Xander Davies et al Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback MIT Harvard University 27 Juli 2023 Abgerufen am 24 September 2023 englisch Muru Zhang et al How language model hallucinations can snowball arXiv preprint arXiv 2305 13534 2023 Google Chatbot Bard kampft gegen KI Halluzinationen indem es zweifelhafte Textstellen markiert In NZZ 19 September 2023 Abgerufen am 24 September 2023 Gerrit De Vynck ChatGPT hallucinates Some researchers worry it isn t fixable The Washington Post 30 Mai 2023 Abgerufen am 24 September 2023 englisch Abgerufen von https de wikipedia org w index php title Halluzination Kunstliche Intelligenz amp oldid 237734645