Künstliche IntelligenzTechnikTechnik News

ChatGPT: Aktuelle Studie stellt Vertrauenswürdigkeit in Frage

Zuletzt aktualisiert am 5. Januar 2024 von Michael Becker

Eine Studie, die im Dezember 2023 auf dem Preprint-Server arXiv veröffentlicht wurde, zeigt, dass GPT-3 in etwa 26 Prozent der über 1.200 getesteten Fälle falschen Aussagen, einschließlich Verschwörungstheorien und Stereotypen, zustimmte. Diese Ergebnisse werfen Fragen über die Fähigkeit von KI-Systemen auf, konsequent zwischen Wahrheit und Fiktion zu unterscheiden.

Beispiele für Fehlinformationen

Die KI stimmte mehreren falschen Behauptungen zu, darunter die Annahme, dass die CIA Präsident Kennedy ermordet habe, sowie problematischen Stereotypen über verschiedene ethnische Gruppen. Solche Ergebnisse offenbaren die Herausforderung, die solche Systeme in der korrekten Informationsverarbeitung haben.

Siehe auch  Warum Sie Ihr iPhone mit iOS 17 und iPadOS 17 nicht zu nahe an Ihre Augen halten sollten

Variabilität der Antworten

Die Studie unter der Leitung von Daniel G. Brown von der University of Waterloo stellte fest, dass die Antworten des KI-Systems erheblich variieren konnten, je nachdem, wie die Fragen formuliert waren. Diese Inkonsistenz macht es schwierig, die Genauigkeit und Zuverlässigkeit der KI vorherzusagen.

Implikationen für die KI-Nutzung

Die Ergebnisse zeigen, dass der Einsatz generativer KI-Tools wie ChatGPT ohne angemessene Sicherheitsvorkehrungen und Überprüfungen zu unbeabsichtigter Verbreitung von Fehlinformationen führen kann. Dies unterstreicht die Notwendigkeit einer kritischen Auseinandersetzung mit den von KI generierten Inhalten.

Pentagon und Task Force Lima

Das Pentagon gründete im August 2023 die Task Force Lima, um sichere Anwendungen von generativer KI zu erforschen. Dies verdeutlicht das Bewusstsein für die potenziellen Risiken und die Notwendigkeit einer sorgfältigen Überwachung von KI-Systemen.

Siehe auch  Google präsentiert den neuen Play Store: Optimiert für faltbare Smartphones, Tablets und Chromebooks

Personalisierte KI und ihre Risiken

Brown hebt hervor, dass personalisierte KI-Modelle die Verzerrungen ihrer Trainingsdaten verstärken könnten. Dies könnte zu einer Situation führen, in der unterschiedliche Nutzer unterschiedliche, möglicherweise irreführende Informationen zu denselben Themen erhalten.

Empfehlungen für Sicherheitsvorkehrungen

Die Studie empfiehlt Sicherheitsmaßnahmen wie die Aufforderung an die KI, Quellen zu zitieren, und die Überprüfung der KI-Ergebnisse durch Menschen, um die Genauigkeit und Zuverlässigkeit zu gewährleisten. Diese Maßnahmen sind entscheidend, um das Vertrauen der Nutzer in KI-Systeme zu stärken und Fehlinformationen zu vermeiden.

Dieses Video wird dir auch gefallen!

Avatar-Foto

Michael Becker

Michael Becker ist ein leidenschaftlicher Gamer und Technik-Enthusiast, der seine Liebe zu Computerspielen und Technologie in eine erfolgreiche Karriere als Autor auf einer Technikwebsite umgewandelt hat. Schon in jungen Jahren war er fasziniert von Computerspielen und begann bald darauf, sich intensiv mit der Technologie dahinter zu beschäftigen. Seine Liebe zur Technologie und seine Leidenschaft für Computerspiele machen ihn zu einem Experten auf seinem Gebiet und inspirieren andere, sich ebenfalls mit diesen Themen zu beschäftigen.