Forscher entwickeln „Gift“ um künstlicher Intelligenz zu schaden
Zuletzt aktualisiert am 12. September 2024 von Lars Weidmann
In den letzten Jahren hat die Entwicklung von Künstlicher Intelligenz (KI) und generativen KI-Tools die Kunstwelt revolutioniert. Allerdings sind viele professionelle Künstler und Fotografen zunehmend frustriert darüber, dass ihre Werke von KI-Firmen ohne Zustimmung oder Entschädigung verwendet werden, um ihre Technologien zu trainieren. Glücklicherweise gibt es nun eine Möglichkeit, dem entgegenzuwirken, ohne vor Gericht zu gehen. Forscher haben ein Tool namens „Nightshade“ entwickelt, das die Trainingsmodelle von generativen KI-Tools verwirren kann, indem es fehlerhafte Bilder als Antwort auf Anfragen generiert. In diesem Artikel werden wir genauer darauf eingehen, wie Nightshade funktioniert und welche Auswirkungen es auf die Kunstwelt haben könnte.
Generative Künstliche Intelligenz und das Problem der Bildnutzung
Generative KI-Tools wie das ChatGPT von OpenAI sind in der Lage, auf natürliche Weise mit Menschen zu kommunizieren und Bilder aus Textanfragen zu generieren. Um diese Fähigkeiten zu erlangen, werden die Tools jedoch mit riesigen Mengen an Daten trainiert, die aus dem Internet gesammelt werden. Das bedeutet, dass Künstler und Fotografen ihre Werke ohne Zustimmung oder Entschädigung von Tech-Firmen nutzen lassen müssen, um deren generative KI-Tools zu verbessern.
Die Entwicklung von Nightshade
Um diesem Problem entgegenzuwirken, haben Forscher ein Tool namens Nightshade entwickelt. Nightshade kann die Trainingsmodelle von generativen KI-Tools durcheinanderbringen, indem unsichtbare Pixel zu Kunstwerken hinzugefügt werden, bevor sie ins Internet hochgeladen werden. Diese „vergifteten“ Bilder führen dazu, dass die generativen KI-Modelle fehlerhafte Bilder generieren, wenn sie mit entsprechenden Anfragen konfrontiert werden. Das Forschungsteam hinter Nightshade hat das Tool bereits zur Begutachtung eingereicht und plant, es als Open-Source-Software zu veröffentlichen.
Die Auswirkungen von Nightshade
Nightshade hat das Potenzial, die Balance der Macht zwischen Künstlern und Tech-Firmen wiederherzustellen. Indem sie ihre Werke mit Nightshade „vergiften“, können Künstler die Trainingsdaten der generativen KI-Modelle beschädigen und sicherstellen, dass einige Ausgaben der Tools nutzlos sind. Beispielsweise könnten Hunde zu Katzen und Autos zu Kühen werden. Je mehr „vergiftete“ Bilder in die Modelle integriert werden, desto größer ist der Schaden für die generativen KI-Tools.
Der Kampf um Urheberrechte
Die Nutzung von Künstlerwerken ohne Zustimmung oder Entschädigung hat zu zahlreichen Urheberrechtsklagen geführt. Viele Künstler werfen den Schöpfern der generativen KI-Tools vor, ihre Werke unrechtmäßig zu verwenden. Mit Nightshade haben Künstler nun ein mächtiges Werkzeug in der Hand, um gegen diese Verletzungen ihrer Urheberrechte vorzugehen. Nightshade kann als letzte Verteidigungslinie für Künstler dienen und Tech-Firmen eine Warnung senden, die das Urheberrecht und geistiges Eigentum ignorieren.
Die Rolle von OpenAI und DALL-E
OpenAI, das Unternehmen hinter ChatGPT und anderen generativen KI-Tools, hat kürzlich Maßnahmen ergriffen, um das Problem anzugehen. Künstler können nun ihre Werke aus den Trainingsdaten von OpenAI entfernen lassen. Allerdings ist dieser Prozess äußerst aufwendig und erfordert von den Künstlern, für jedes Bild eine separate Anfrage zu stellen. Dies könnte dazu führen, dass Künstler vermehrt Tools wie Nightshade nutzen, um ihre Werke zu schützen.
Die Zukunft von Nightshade
Das Forschungsteam hinter Nightshade plant, das Tool als Open-Source-Software zu veröffentlichen, damit es von anderen weiterentwickelt und verbessert werden kann. Nightshade sollte jedoch als letzte Verteidigungslinie für Künstler gegen Web-Scraping und die Verletzung ihrer Rechte eingesetzt werden. Es bleibt abzuwarten, wie sich Nightshade und ähnliche Tools in der Kunstwelt etablieren werden und welche Auswirkungen sie auf die Entwicklung von generativen KI-Tools haben werden.
Fazit
Die Verwendung von generativen KI-Tools hat die Kunstwelt revolutioniert, aber gleichzeitig zu Konflikten um Urheberrechte geführt. Mit Nightshade haben Künstler nun ein Werkzeug, um ihre Werke vor unerlaubter Nutzung zu schützen. Nightshade kann die Trainingsdaten von generativen KI-Tools „vergiften“ und fehlerhafte Bilder generieren lassen. Es bleibt abzuwarten, wie sich Nightshade und ähnliche Tools weiterentwickeln werden, aber sie könnten dazu beitragen, die Balance der Macht zwischen Künstlern und Tech-Firmen wiederherzustellen. Die Kunstwelt steht vor einer spannenden Zukunft, in der Künstliche Intelligenz eine immer größere Rolle spielen wird.