Googles Gemini AI setzt Bildgenerierung von Menschen aus
Zuletzt aktualisiert am 13. September 2024 von Lars Weidmann
Google hat kürzlich bekannt gegeben, dass sein Gemini AI-Chatbot vorübergehend die Fähigkeit zur Generierung von Bildern, die Menschen einschließen, aussetzt. Diese Maßnahme erfolgt nach Kritik an der Tendenz der KI, Bilder von Menschen mit einem Bias hin zu dunkleren Hauttönen zu generieren, insbesondere in historischen Kontexten. Dieses Phänomen hat zu einer hitzigen Debatte über die ethischen Implikationen der KI-Technologie und deren Auswirkungen auf die Darstellung von Minderheiten geführt.
We're already working to address recent issues with Gemini's image generation feature. While we do this, we're going to pause the image generation of people and will re-release an improved version soon. https://t.co/SLxYPGoqOZ
— Google Communications (@Google_Comms) February 22, 2024
Google’s Reaktion auf die Kritik
Nachdem das Problem als gravierender eingestuft wurde als zunächst angenommen, versprach Google, eine Lösung über Social-Media-Kanäle zu finden. Die Situation hat jedoch zu einer temporären, vollständigen Einstellung dieser spezifischen Funktion geführt. Google arbeitet derzeit an Verbesserungen, um die Genauigkeit und Fairness der Bildgenerierung zu erhöhen und verspricht, dass eine verbesserte Version bald zur Verfügung stehen wird.
Technische und ethische Herausforderungen
Das Problem der verzerrten Bildgenerierung ist nicht auf Gemini beschränkt; es ist eine Herausforderung, die viele KI-Modelle betrifft. Experten weisen darauf hin, dass die Überkorrektur in Googles Bemühungen, Vielfalt und Genauigkeit zu verbessern, zu unerwünschten Ergebnissen geführt hat. Diese Entwicklungen werfen wichtige Fragen auf bezüglich der Verantwortung von Entwicklern, historische Genauigkeit zu bewahren und gleichzeitig Bias in KI-Systemen zu vermeiden.
Auswirkungen und zukünftige Schritte
Die vorübergehende Einstellung der Bildgenerierungsfunktion von Gemini zwingt Nutzer, die auf KI-generierte Bilder von Menschen angewiesen sind, auf alternative Plattformen auszuweichen. Google hat jedoch versichert, dass es an Lösungen arbeitet, um die Funktion sicher und fair für alle Nutzer zurückzubringen. Dieser Vorfall unterstreicht die Notwendigkeit für kontinuierliche Forschung und Entwicklung in der KI-Ethik und -Technologie, um sicherzustellen, dass KI-Systeme inklusiv und repräsentativ für die Vielfalt der menschlichen Erfahrung sind.