News-alt

Googles Gemini AI setzt Bildgenerierung von Menschen aus

Zuletzt aktualisiert am 13. September 2024 von Lars Weidmann

Google hat kürzlich bekannt gegeben, dass sein Gemini AI-Chatbot vorübergehend die Fähigkeit zur Generierung von Bildern, die Menschen einschließen, aussetzt. Diese Maßnahme erfolgt nach Kritik an der Tendenz der KI, Bilder von Menschen mit einem Bias hin zu dunkleren Hauttönen zu generieren, insbesondere in historischen Kontexten. Dieses Phänomen hat zu einer hitzigen Debatte über die ethischen Implikationen der KI-Technologie und deren Auswirkungen auf die Darstellung von Minderheiten geführt.

Google’s Reaktion auf die Kritik

Nachdem das Problem als gravierender eingestuft wurde als zunächst angenommen, versprach Google, eine Lösung über Social-Media-Kanäle zu finden. Die Situation hat jedoch zu einer temporären, vollständigen Einstellung dieser spezifischen Funktion geführt. Google arbeitet derzeit an Verbesserungen, um die Genauigkeit und Fairness der Bildgenerierung zu erhöhen und verspricht, dass eine verbesserte Version bald zur Verfügung stehen wird.

Siehe auch  Nvidia führt Werbung für kostenlose GeForce Now-Nutzer ein

Technische und ethische Herausforderungen

Das Problem der verzerrten Bildgenerierung ist nicht auf Gemini beschränkt; es ist eine Herausforderung, die viele KI-Modelle betrifft. Experten weisen darauf hin, dass die Überkorrektur in Googles Bemühungen, Vielfalt und Genauigkeit zu verbessern, zu unerwünschten Ergebnissen geführt hat. Diese Entwicklungen werfen wichtige Fragen auf bezüglich der Verantwortung von Entwicklern, historische Genauigkeit zu bewahren und gleichzeitig Bias in KI-Systemen zu vermeiden.

Auswirkungen und zukünftige Schritte

Die vorübergehende Einstellung der Bildgenerierungsfunktion von Gemini zwingt Nutzer, die auf KI-generierte Bilder von Menschen angewiesen sind, auf alternative Plattformen auszuweichen. Google hat jedoch versichert, dass es an Lösungen arbeitet, um die Funktion sicher und fair für alle Nutzer zurückzubringen. Dieser Vorfall unterstreicht die Notwendigkeit für kontinuierliche Forschung und Entwicklung in der KI-Ethik und -Technologie, um sicherzustellen, dass KI-Systeme inklusiv und repräsentativ für die Vielfalt der menschlichen Erfahrung sind.

Siehe auch  Google Cloud Next 2024: Neue KI-Sicherheitsfeatures für Gmail und Google Drive

Autor

Avatar-Foto

Michael Becker

Michael Becker ist ein Technik-Enthusiast, der schon seit mehreren Jahren für verschiedene Technikmagazine schreibt.