OpenAI gründet unabhängiges Sicherheitsgremium
Zuletzt aktualisiert am 18. September 2024 von Marina Meier
OpenAI, das Unternehmen hinter ChatGPT, hat ein unabhängiges Sicherheitsgremium ins Leben gerufen. Ziel ist es, sicherzustellen, dass ihre KI-Modelle sicher und verantwortungsvoll genutzt werden. Dieses Gremium, das von OpenAIs bisherigem Sicherheits- und Schutzkomitee entwickelt wurde, hat die Macht, Modellveröffentlichungen zu stoppen, wenn Sicherheitsbedenken bestehen.
Überwachung von Modellveröffentlichungen
Das neue Sicherheitsgremium wird von Zico Kolter geleitet und umfasst Mitglieder wie Adam D’Angelo und Paul Nakasone. Es erhält regelmäßige Updates zu Sicherheitsbewertungen und kann eine Veröffentlichung aufhalten, wenn Risiken bestehen. Auch der Vorstand von OpenAI wird über alle wichtigen Sicherheitsfragen informiert.
Zusammenarbeit mit externen Partnern
Neben der internen Überwachung arbeitet OpenAI mit externen Organisationen wie den Los Alamos National Labs zusammen, um sicherzustellen, dass KI in verschiedenen Bereichen sicher genutzt wird. Zudem gibt es Kooperationen mit den AI Safety Institutes in den USA und Großbritannien, um Risiken zu erforschen und Sicherheitsstandards zu entwickeln. OpenAI plant, noch mehr unabhängige Tests und Sicherheitsüberprüfungen durchzuführen.
Trotz dieser Schritte bleibt die Frage offen, wie unabhängig das Sicherheitsgremium wirklich ist, da viele Mitglieder auch im Vorstand von OpenAI sitzen.