Künstliche IntelligenzTechnikTechnik News

ChatGPT: Aktuelle Studie stellt Vertrauenswürdigkeit in Frage

Zuletzt aktualisiert am 5. Januar 2024 von Michael Becker

Eine Studie, die im Dezember 2023 auf dem Preprint-Server arXiv veröffentlicht wurde, zeigt, dass GPT-3 in etwa 26 Prozent der über 1.200 getesteten Fälle falschen Aussagen, einschließlich Verschwörungstheorien und Stereotypen, zustimmte. Diese Ergebnisse werfen Fragen über die Fähigkeit von KI-Systemen auf, konsequent zwischen Wahrheit und Fiktion zu unterscheiden.

Beispiele für Fehlinformationen

Die KI stimmte mehreren falschen Behauptungen zu, darunter die Annahme, dass die CIA Präsident Kennedy ermordet habe, sowie problematischen Stereotypen über verschiedene ethnische Gruppen. Solche Ergebnisse offenbaren die Herausforderung, die solche Systeme in der korrekten Informationsverarbeitung haben.

Siehe auch  Chinesisches Start-up entwickelt revolutionäre Nuklear-Batterie

Variabilität der Antworten

Die Studie unter der Leitung von Daniel G. Brown von der University of Waterloo stellte fest, dass die Antworten des KI-Systems erheblich variieren konnten, je nachdem, wie die Fragen formuliert waren. Diese Inkonsistenz macht es schwierig, die Genauigkeit und Zuverlässigkeit der KI vorherzusagen.

Implikationen für die KI-Nutzung

Die Ergebnisse zeigen, dass der Einsatz generativer KI-Tools wie ChatGPT ohne angemessene Sicherheitsvorkehrungen und Überprüfungen zu unbeabsichtigter Verbreitung von Fehlinformationen führen kann. Dies unterstreicht die Notwendigkeit einer kritischen Auseinandersetzung mit den von KI generierten Inhalten.

Pentagon und Task Force Lima

Das Pentagon gründete im August 2023 die Task Force Lima, um sichere Anwendungen von generativer KI zu erforschen. Dies verdeutlicht das Bewusstsein für die potenziellen Risiken und die Notwendigkeit einer sorgfältigen Überwachung von KI-Systemen.

Siehe auch  Alarmierende Sicherheitslücke: Android-Trojaner räumt Konten leer

Personalisierte KI und ihre Risiken

Brown hebt hervor, dass personalisierte KI-Modelle die Verzerrungen ihrer Trainingsdaten verstärken könnten. Dies könnte zu einer Situation führen, in der unterschiedliche Nutzer unterschiedliche, möglicherweise irreführende Informationen zu denselben Themen erhalten.

Empfehlungen für Sicherheitsvorkehrungen

Die Studie empfiehlt Sicherheitsmaßnahmen wie die Aufforderung an die KI, Quellen zu zitieren, und die Überprüfung der KI-Ergebnisse durch Menschen, um die Genauigkeit und Zuverlässigkeit zu gewährleisten. Diese Maßnahmen sind entscheidend, um das Vertrauen der Nutzer in KI-Systeme zu stärken und Fehlinformationen zu vermeiden.

Dieses Video wird dir auch gefallen!

Autor

Siehe auch  WhatsApp testet neue Funktion zur Verbesserung der Benachrichtigungen
Avatar-Foto

Michael Becker

Michael Becker ist ein Technik-Enthusiast, der schon seit mehreren Jahren für verschiedene Technikmagazine schreibt.