Ethereum-Gründer Vitalik Buterin warnt vor superintelligenter KI
Zuletzt aktualisiert am 22. Mai 2024 von Luca Koch
Vitalik Buterin, der Schöpfer der Ethereum-Blockchain, hat zu einer vorsichtigeren Herangehensweise an die Forschung im Bereich der Künstlichen Intelligenz (KI) aufgerufen. In einer Reaktion auf Kritik von Ryan Selkis, dem CEO des Krypto-Intelligence-Unternehmens Messari, bezeichnete Buterin den aktuellen Eifer in der KI-Entwicklung als „sehr riskant“. Dabei legte er seine Ansichten zur sogenannten AI-Alignment – den grundlegenden Prinzipien, die die Entwicklung von KI leiten sollten – dar.
https://x.com/VitalikButerin/status/1792890777380831690
„Superintelligente KI ist sehr riskant und wir sollten nicht übereilt handeln, sondern uns gegen diejenigen wehren, die es versuchen“, betonte Buterin. „Keine Serverfarmen für sieben Billionen Dollar, bitte.“ Superintelligente KI ist eine theoretische Form der Künstlichen Intelligenz, die menschliche Intelligenz in nahezu allen Bereichen übertrifft. Während viele die allgemeine Künstliche Intelligenz (AGI) als die volle Realisierung des Potenzials der aufstrebenden Technologie sehen, würde superintelligente KI darüber hinausgehen. Obwohl heutige KI-Systeme diese Schwellen noch nicht erreicht haben, schreiten die Fortschritte in maschinellem Lernen, neuronalen Netzwerken und anderen KI-Technologien weiter voran – zur Freude und Sorge der Menschen.
Vielfältiges KI-Ökosystem gefordert
Nach einem Tweet von Messari, der betonte, dass „AGI zu wichtig ist, um einen weiteren glatt sprechenden Narzissten zu verherrlichen“, hob Buterin die Bedeutung eines vielfältigen KI-Ökosystems hervor, um eine Welt zu vermeiden, in der der immense Wert der KI von sehr wenigen Menschen kontrolliert wird.
„Ein starkes Ökosystem offener Modelle, die auf Verbraucherhardware laufen, ist eine wichtige Absicherung gegen eine Zukunft, in der der von KI erfasste Wert hyperkonzentriert ist und die meisten menschlichen Gedanken von einigen zentralen Servern gelesen und vermittelt werden, die von wenigen Menschen kontrolliert werden“, sagte er. „Solche Modelle sind auch wesentlich risikoärmer als sowohl die Megalomanie von Unternehmen als auch militärische Anwendungen.“
Debatten über AI-Alignment und Sicherheitsbedenken
Buterins Äußerungen kommen zu einer Zeit hitziger Debatten über die Ausrichtung der KI-Entwicklung und die Rücktritte wichtiger Persönlichkeiten aus dem Super-Alignment-Forschungsteam von OpenAI. Ilya Sutskever und Jan Leike haben das Unternehmen verlassen, wobei Leike OpenAI-CEO Sam Altman vorwarf, „glänzende Produkte“ über eine verantwortungsvolle KI-Entwicklung zu stellen. Zudem wurde bekannt, dass OpenAI strenge Geheimhaltungsvereinbarungen (NDAs) hat, die verhindern, dass Mitarbeiter nach ihrem Ausscheiden über das Unternehmen sprechen.
Buterin sieht sich selbst als Zentrist. In einem Essay aus dem Jahr 2023, den er heute erneut bestätigte, erkannte er an, dass „es sehr schwierig erscheint, eine ‘freundliche’ superintelligente KI-dominierte Welt zu haben, in der Menschen mehr als nur Haustiere sind“, aber auch, dass „häufig Version N unserer Zivilisationstechnologie ein Problem verursacht, und Version N+1 es löst. Dies geschieht jedoch nicht automatisch und erfordert bewusste menschliche Anstrengung.“