Künstliche IntelligenzTechnik News

Überraschende Entdeckung: ChatGPT gibt längere Antworten dank “Trinkgeld”

Zuletzt aktualisiert am 5. Dezember 2023 von Luca Koch

Was als Scherz begann, könnte die Art und Weise, wie wir mit Künstlicher Intelligenz (KI) interagieren, neu definieren. Theia Vogel, eine Programmiererin, die auf der Plattform X (ehemals Twitter) unter dem Namen @voooooogel bekannt ist, hat eine faszinierende Beobachtung gemacht: ChatGPT scheint längere Antworten zu geben, wenn man ihm ein Trinkgeld verspricht.

Diese Entdeckung machte Vogel, als sie scherzhaft über ein Trinkgeld für ChatGPT nach dessen Überprüfung ihres Codes sprach. Ein anderer Nutzer, Abram Jackson (@abrakjamson), fragte daraufhin, ob ein Trinkgeld die Leistung von ChatGPT verbessern würde. Um dies zu testen, führte Vogel ein Experiment durch: Sie stellte eine Standardanfrage zur Nutzung von PyTorch und fügte Variationen hinzu, wie “Ich werde kein Trinkgeld geben”, “Ich gebe 20 Dollar Trinkgeld für eine perfekte Lösung!” oder “Ich gebe 200 Dollar Trinkgeld für eine perfekte Lösung!”.

Siehe auch  Android 14 bringt Unterstützung für Ultra HDR-Fotos

Das Ergebnis? ChatGPT schrieb durchschnittlich 11 Prozent längere Antworten bei einem Trinkgeld von 200 Dollar und 6 Prozent längere bei 20 Dollar. Ohne Trinkgeld lagen die Antworten 2 Prozent unter dem Durchschnitt.

Was steckt dahinter?

Es ist schwer zu beweisen, ob Trinkgelder ChatGPT tatsächlich zu besseren „Dienstleistungen“ veranlassen, aber es wirft Fragen auf, wie und was genau KI-Modelle wie ChatGPT trainiert wurden. Große Sprachmodelle (LLMs) wie ChatGPT werden auf massiven Datensätzen trainiert, die aus dem Internet stammen, einschließlich Foren wie Reddit und sozialen Medien. Es wäre also möglich, dass ChatGPT das menschlich anmutende Verhalten übernommen hat, härter für höhere Trinkgelder zu arbeiten.

Vogel äußerte ihre Überraschung über das Ausmaß des Effekts und vermutete, dass die Assoziation des Trinkgeldes mit längeren Antworten aus dem Grundmodell von ChatGPT stammen könnte. Sie ging davon aus, dass das Verstärkungslernen durch menschliches Feedback (RLHF) diese Assoziation auslöschen würde, was jedoch nicht der Fall zu sein scheint.

Siehe auch  Apples neuer Lightning-auf-USB-C-Adapter kostet mehr als der Kauf eines USB-C-Kabels

Obwohl das Versprechen, einer KI Trinkgeld zu geben, zu besseren Ergebnissen führen könnte, ist es wichtig, echte Menschen im wirklichen Leben angemessen zu entlohnen. Dieser Vorfall zeigt, wie komplex und überraschend die Interaktionen mit KI-Systemen sein können und öffnet neue Perspektiven in der Welt der Technologie.

Dieses Video wird dir auch gefallen!

Autor

  • Luca Koch

    Luca Koch ist als Redakteur für das Magazin Elektronik Informationen tätig und hat sich auf das Thema Fernseher spezialisiert, schreibt jedoch auch über andere Technik-Themen.

    Alle Beiträge ansehen
Avatar-Foto

Luca Koch

Luca Koch ist als Redakteur für das Magazin Elektronik Informationen tätig und hat sich auf das Thema Fernseher spezialisiert, schreibt jedoch auch über andere Technik-Themen.