News-alt

ChatGPT: Aktuelle Studie stellt Vertrauenswürdigkeit in Frage

Zuletzt aktualisiert am 13. September 2024 von Lars Weidmann

Eine Studie, die im Dezember 2023 auf dem Preprint-Server arXiv veröffentlicht wurde, zeigt, dass GPT-3 in etwa 26 Prozent der über 1.200 getesteten Fälle falschen Aussagen, einschließlich Verschwörungstheorien und Stereotypen, zustimmte. Diese Ergebnisse werfen Fragen über die Fähigkeit von KI-Systemen auf, konsequent zwischen Wahrheit und Fiktion zu unterscheiden.

Beispiele für Fehlinformationen

Die KI stimmte mehreren falschen Behauptungen zu, darunter die Annahme, dass die CIA Präsident Kennedy ermordet habe, sowie problematischen Stereotypen über verschiedene ethnische Gruppen. Solche Ergebnisse offenbaren die Herausforderung, die solche Systeme in der korrekten Informationsverarbeitung haben.

Variabilität der Antworten

Die Studie unter der Leitung von Daniel G. Brown von der University of Waterloo stellte fest, dass die Antworten des KI-Systems erheblich variieren konnten, je nachdem, wie die Fragen formuliert waren. Diese Inkonsistenz macht es schwierig, die Genauigkeit und Zuverlässigkeit der KI vorherzusagen.

Siehe auch  Microsoft stellt überraschend wichtige Sicherheitssoftware ein

Implikationen für die KI-Nutzung

Die Ergebnisse zeigen, dass der Einsatz generativer KI-Tools wie ChatGPT ohne angemessene Sicherheitsvorkehrungen und Überprüfungen zu unbeabsichtigter Verbreitung von Fehlinformationen führen kann. Dies unterstreicht die Notwendigkeit einer kritischen Auseinandersetzung mit den von KI generierten Inhalten.

Pentagon und Task Force Lima

Das Pentagon gründete im August 2023 die Task Force Lima, um sichere Anwendungen von generativer KI zu erforschen. Dies verdeutlicht das Bewusstsein für die potenziellen Risiken und die Notwendigkeit einer sorgfältigen Überwachung von KI-Systemen.

Personalisierte KI und ihre Risiken

Brown hebt hervor, dass personalisierte KI-Modelle die Verzerrungen ihrer Trainingsdaten verstärken könnten. Dies könnte zu einer Situation führen, in der unterschiedliche Nutzer unterschiedliche, möglicherweise irreführende Informationen zu denselben Themen erhalten.

Siehe auch  Samsung plant große Kamera-Updates für das Galaxy S25 Ultra

Empfehlungen für Sicherheitsvorkehrungen

Die Studie empfiehlt Sicherheitsmaßnahmen wie die Aufforderung an die KI, Quellen zu zitieren, und die Überprüfung der KI-Ergebnisse durch Menschen, um die Genauigkeit und Zuverlässigkeit zu gewährleisten. Diese Maßnahmen sind entscheidend, um das Vertrauen der Nutzer in KI-Systeme zu stärken und Fehlinformationen zu vermeiden.

Autor

Avatar-Foto

Michael Becker

Michael Becker ist ein Technik-Enthusiast, der schon seit mehreren Jahren für verschiedene Technikmagazine schreibt.