ChatGPT im Fiebertraum: OpenAI behebt „Halluzinationsanfälle“ des KI-Chatbots
Zuletzt aktualisiert am 13. September 2024 von Lars Weidmann
Das beliebte KI-System ChatGPT von OpenAI hat zwischen dem 20. und 21. Februar eine unerwartete Störung erlebt, die Nutzer weltweit verwirrt hat. Statt der gewohnten präzisen Antworten produzierte das System unvermittelt sinnloses Geplapper und pseudo-shakespearesche Ausdrucksweisen, die für Irritationen sorgten.
chatgpt is apparently going off the rails right now and no one can explain why pic.twitter.com/0XSSsTfLzP
— sean mcguire (@seanw_m) February 21, 2024
Eine schnelle Lösung für ein rätselhaftes Problem
Nach einer intensiven Untersuchung und schnellem Handeln seitens OpenAI konnte das Problem am 21. Februar um 8:14 Uhr pazifischer Standardzeit behoben werden. Laut dem neuesten Update auf der Statusseite von OpenAI funktioniert ChatGPT nun wieder normal. Die Behebung der Störung dauerte etwa 18 Stunden, nachdem sie erstmals gemeldet wurde. Die genaue Ursache der Störung bleibt bisher unklar, und OpenAI hat sich noch nicht zu Anfragen für einen Kommentar geäußert.
Experten vermuten, dass eine Verwirrung in der Tokenisierung des Systems vorlag. Die „Black Box“-Natur großer Sprachmodelle, die auf der GPT-Technologie basieren, erschwert es jedoch, eine genaue Diagnose zu stellen. Es wird angenommen, dass OpenAI nun präventive Maßnahmen ergreifen wird, um ähnliche Vorfälle in Zukunft zu verhindern, darunter die Implementierung von Sicherheitsvorkehrungen gegen lange, sinnlose Textabschnitte.
Die Folgen: Begrenzte Schäden, aber ein Weckruf
Die Störung von ChatGPT führte zu überwiegend begrenzten Schäden, hauptsächlich in Form von Zeitverlust für Nutzer, die sinnvolle Antworten auf ihre Anfragen erwarteten. Die sozialen Medien spiegeln eine Stimmung wider, die zwar von leichten Frustrationen geprägt ist, aber größere Schäden scheinen ausgeblieben zu sein.
Dieser Vorfall wirft jedoch ein Schlaglicht auf die potenziellen Risiken generativer KI-Systeme, unerwartete, „halluzinierte“ oder inkonsistente Antworten zu generieren. Solche unerwünschten Reaktionen können durchaus negative Konsequenzen haben, wie das Beispiel von Air Canada zeigt, das gerichtlich dazu verurteilt wurde, einem Kunden eine teilweise Rückerstattung zu gewähren, nachdem er von einem Kundenservice-Chatbot falsche Informationen erhalten hatte.
Ein Blick in die Zukunft
Dieser Vorfall unterstreicht die Bedeutung von Sicherheitsmaßnahmen und die Notwendigkeit, die Zuverlässigkeit von KI-Systemen kontinuierlich zu verbessern. Während die Technologie voranschreitet, ist es entscheidend, sowohl die Möglichkeiten als auch die Grenzen künstlicher Intelligenz zu erkennen und verantwortungsvoll mit den sich daraus ergebenden Herausforderungen umzugehen.