OpenAI in der Kritik: Neue Sicherheitslücken und interne Konflikte
Zuletzt aktualisiert am 12. September 2024 von Lars Weidmann
OpenAI, bekannt für seine fortschrittlichen KI-Lösungen, steht erneut im Rampenlicht – diesmal aufgrund erheblicher Sicherheitsprobleme. Besonders besorgniserregend sind dabei eine Schwachstelle in der ChatGPT-App für Mac und allgemeine Bedenken hinsichtlich der Cybersicherheitspraktiken des Unternehmens.
Sicherheitslücke in der ChatGPT-App für Mac
Der Ingenieur und Swift-Entwickler Pedro José Pereira Vieito enthüllte, dass die Mac-Version der ChatGPT-App Nutzergespräche lokal im Klartext speicherte. Dies ist problematisch, da Klartextdateien leicht von anderen Anwendungen oder Malware eingesehen werden können. Da die App nur über die Website von OpenAI verfügbar ist, unterliegt sie nicht den strengen Sandboxing-Anforderungen des Apple App Stores. Als Reaktion auf Vieitos Entdeckung veröffentlichte OpenAI ein Update, das die Verschlüsselung der lokal gespeicherten Chats hinzufügte.
Hackangriff und interne Spannungen
Ein weiteres gravierendes Problem ereignete sich im Frühjahr 2023, als ein Hacker Zugriff auf interne Nachrichtensysteme von OpenAI erlangte und sensible Informationen stahl. Leopold Aschenbrenner, technischer Programmmanager bei OpenAI, warnte die Geschäftsführung vor möglichen internen Schwachstellen. Er behauptet, aufgrund dieser Sicherheitsbedenken entlassen worden zu sein. Ein Sprecher von OpenAI widersprach dieser Darstellung und erklärte, dass seine Entlassung nicht auf das Aufdecken von Sicherheitsmängeln zurückzuführen sei.
Größere Fragen zur Datensicherheit
Diese Vorfälle werfen ernste Fragen darüber auf, ob OpenAI in der Lage ist, die Sicherheit und den Schutz der Daten seiner Nutzer angemessen zu gewährleisten. Die weitreichende Nutzung von ChatGPT und die bisherige Handhabung von Sicherheitsproblemen durch das Unternehmen lassen Zweifel an der Zuverlässigkeit und dem Management von OpenAI aufkommen.