ChatGPT: Aktuelle Studie stellt Vertrauenswürdigkeit in Frage
Zuletzt aktualisiert am 13. September 2024 von Lars Weidmann
Eine Studie, die im Dezember 2023 auf dem Preprint-Server arXiv veröffentlicht wurde, zeigt, dass GPT-3 in etwa 26 Prozent der über 1.200 getesteten Fälle falschen Aussagen, einschließlich Verschwörungstheorien und Stereotypen, zustimmte. Diese Ergebnisse werfen Fragen über die Fähigkeit von KI-Systemen auf, konsequent zwischen Wahrheit und Fiktion zu unterscheiden.
Beispiele für Fehlinformationen
Die KI stimmte mehreren falschen Behauptungen zu, darunter die Annahme, dass die CIA Präsident Kennedy ermordet habe, sowie problematischen Stereotypen über verschiedene ethnische Gruppen. Solche Ergebnisse offenbaren die Herausforderung, die solche Systeme in der korrekten Informationsverarbeitung haben.
Variabilität der Antworten
Die Studie unter der Leitung von Daniel G. Brown von der University of Waterloo stellte fest, dass die Antworten des KI-Systems erheblich variieren konnten, je nachdem, wie die Fragen formuliert waren. Diese Inkonsistenz macht es schwierig, die Genauigkeit und Zuverlässigkeit der KI vorherzusagen.
Implikationen für die KI-Nutzung
Die Ergebnisse zeigen, dass der Einsatz generativer KI-Tools wie ChatGPT ohne angemessene Sicherheitsvorkehrungen und Überprüfungen zu unbeabsichtigter Verbreitung von Fehlinformationen führen kann. Dies unterstreicht die Notwendigkeit einer kritischen Auseinandersetzung mit den von KI generierten Inhalten.
Pentagon und Task Force Lima
Das Pentagon gründete im August 2023 die Task Force Lima, um sichere Anwendungen von generativer KI zu erforschen. Dies verdeutlicht das Bewusstsein für die potenziellen Risiken und die Notwendigkeit einer sorgfältigen Überwachung von KI-Systemen.
Personalisierte KI und ihre Risiken
Brown hebt hervor, dass personalisierte KI-Modelle die Verzerrungen ihrer Trainingsdaten verstärken könnten. Dies könnte zu einer Situation führen, in der unterschiedliche Nutzer unterschiedliche, möglicherweise irreführende Informationen zu denselben Themen erhalten.
Empfehlungen für Sicherheitsvorkehrungen
Die Studie empfiehlt Sicherheitsmaßnahmen wie die Aufforderung an die KI, Quellen zu zitieren, und die Überprüfung der KI-Ergebnisse durch Menschen, um die Genauigkeit und Zuverlässigkeit zu gewährleisten. Diese Maßnahmen sind entscheidend, um das Vertrauen der Nutzer in KI-Systeme zu stärken und Fehlinformationen zu vermeiden.