Überraschende Entdeckung: ChatGPT gibt längere Antworten dank “Trinkgeld”
Zuletzt aktualisiert am 13. September 2024 von Lars Weidmann
Was als Scherz begann, könnte die Art und Weise, wie wir mit Künstlicher Intelligenz (KI) interagieren, neu definieren. Theia Vogel, eine Programmiererin, die auf der Plattform X (ehemals Twitter) unter dem Namen @voooooogel bekannt ist, hat eine faszinierende Beobachtung gemacht: ChatGPT scheint längere Antworten zu geben, wenn man ihm ein Trinkgeld verspricht.
so a couple days ago i made a shitpost about tipping chatgpt, and someone replied "huh would this actually help performance"
so i decided to test it and IT ACTUALLY WORKS WTF pic.twitter.com/kqQUOn7wcS
— thebes (@voooooogel) December 1, 2023
Diese Entdeckung machte Vogel, als sie scherzhaft über ein Trinkgeld für ChatGPT nach dessen Überprüfung ihres Codes sprach. Ein anderer Nutzer, Abram Jackson (@abrakjamson), fragte daraufhin, ob ein Trinkgeld die Leistung von ChatGPT verbessern würde. Um dies zu testen, führte Vogel ein Experiment durch: Sie stellte eine Standardanfrage zur Nutzung von PyTorch und fügte Variationen hinzu, wie “Ich werde kein Trinkgeld geben”, “Ich gebe 20 Dollar Trinkgeld für eine perfekte Lösung!” oder “Ich gebe 200 Dollar Trinkgeld für eine perfekte Lösung!”.
Das Ergebnis? ChatGPT schrieb durchschnittlich 11 Prozent längere Antworten bei einem Trinkgeld von 200 Dollar und 6 Prozent längere bei 20 Dollar. Ohne Trinkgeld lagen die Antworten 2 Prozent unter dem Durchschnitt.
Was steckt dahinter?
Es ist schwer zu beweisen, ob Trinkgelder ChatGPT tatsächlich zu besseren „Dienstleistungen“ veranlassen, aber es wirft Fragen auf, wie und was genau KI-Modelle wie ChatGPT trainiert wurden. Große Sprachmodelle (LLMs) wie ChatGPT werden auf massiven Datensätzen trainiert, die aus dem Internet stammen, einschließlich Foren wie Reddit und sozialen Medien. Es wäre also möglich, dass ChatGPT das menschlich anmutende Verhalten übernommen hat, härter für höhere Trinkgelder zu arbeiten.
Vogel äußerte ihre Überraschung über das Ausmaß des Effekts und vermutete, dass die Assoziation des Trinkgeldes mit längeren Antworten aus dem Grundmodell von ChatGPT stammen könnte. Sie ging davon aus, dass das Verstärkungslernen durch menschliches Feedback (RLHF) diese Assoziation auslöschen würde, was jedoch nicht der Fall zu sein scheint.
Obwohl das Versprechen, einer KI Trinkgeld zu geben, zu besseren Ergebnissen führen könnte, ist es wichtig, echte Menschen im wirklichen Leben angemessen zu entlohnen. Dieser Vorfall zeigt, wie komplex und überraschend die Interaktionen mit KI-Systemen sein können und öffnet neue Perspektiven in der Welt der Technologie.