News

OpenAI gründet unabhängiges Sicherheitsgremium

Zuletzt aktualisiert am 18. September 2024 von Marina Meier

OpenAI, das Unternehmen hinter ChatGPT, hat ein unabhängiges Sicherheitsgremium ins Leben gerufen. Ziel ist es, sicherzustellen, dass ihre KI-Modelle sicher und verantwortungsvoll genutzt werden. Dieses Gremium, das von OpenAIs bisherigem Sicherheits- und Schutzkomitee entwickelt wurde, hat die Macht, Modellveröffentlichungen zu stoppen, wenn Sicherheitsbedenken bestehen.

Überwachung von Modellveröffentlichungen

Das neue Sicherheitsgremium wird von Zico Kolter geleitet und umfasst Mitglieder wie Adam D’Angelo und Paul Nakasone. Es erhält regelmäßige Updates zu Sicherheitsbewertungen und kann eine Veröffentlichung aufhalten, wenn Risiken bestehen. Auch der Vorstand von OpenAI wird über alle wichtigen Sicherheitsfragen informiert.

Zusammenarbeit mit externen Partnern

Neben der internen Überwachung arbeitet OpenAI mit externen Organisationen wie den Los Alamos National Labs zusammen, um sicherzustellen, dass KI in verschiedenen Bereichen sicher genutzt wird. Zudem gibt es Kooperationen mit den AI Safety Institutes in den USA und Großbritannien, um Risiken zu erforschen und Sicherheitsstandards zu entwickeln. OpenAI plant, noch mehr unabhängige Tests und Sicherheitsüberprüfungen durchzuführen.

Siehe auch  Samsung erwägt Auslagerung der Exynos-Chip-Produktion an TSMC

Trotz dieser Schritte bleibt die Frage offen, wie unabhängig das Sicherheitsgremium wirklich ist, da viele Mitglieder auch im Vorstand von OpenAI sitzen.

Autor

Avatar-Foto

Marina Meier

Marina schreibt seit einigen Jahren für Elektronik Informationen. Am liebsten berichtet sie über die Bereiche Handys und Tablets.