KIKI NewsNews

Ethereum-Gründer Vitalik Buterin warnt vor superintelligenter KI

Zuletzt aktualisiert am 22. Mai 2024 von Luca Koch

Vitalik Buterin, der Schöpfer der Ethereum-Blockchain, hat zu einer vorsichtigeren Herangehensweise an die Forschung im Bereich der Künstlichen Intelligenz (KI) aufgerufen. In einer Reaktion auf Kritik von Ryan Selkis, dem CEO des Krypto-Intelligence-Unternehmens Messari, bezeichnete Buterin den aktuellen Eifer in der KI-Entwicklung als „sehr riskant“. Dabei legte er seine Ansichten zur sogenannten AI-Alignment – den grundlegenden Prinzipien, die die Entwicklung von KI leiten sollten – dar.

https://x.com/VitalikButerin/status/1792890777380831690

„Superintelligente KI ist sehr riskant und wir sollten nicht übereilt handeln, sondern uns gegen diejenigen wehren, die es versuchen“, betonte Buterin. „Keine Serverfarmen für sieben Billionen Dollar, bitte.“ Superintelligente KI ist eine theoretische Form der Künstlichen Intelligenz, die menschliche Intelligenz in nahezu allen Bereichen übertrifft. Während viele die allgemeine Künstliche Intelligenz (AGI) als die volle Realisierung des Potenzials der aufstrebenden Technologie sehen, würde superintelligente KI darüber hinausgehen. Obwohl heutige KI-Systeme diese Schwellen noch nicht erreicht haben, schreiten die Fortschritte in maschinellem Lernen, neuronalen Netzwerken und anderen KI-Technologien weiter voran – zur Freude und Sorge der Menschen.

Vielfältiges KI-Ökosystem gefordert

Nach einem Tweet von Messari, der betonte, dass „AGI zu wichtig ist, um einen weiteren glatt sprechenden Narzissten zu verherrlichen“, hob Buterin die Bedeutung eines vielfältigen KI-Ökosystems hervor, um eine Welt zu vermeiden, in der der immense Wert der KI von sehr wenigen Menschen kontrolliert wird.

Siehe auch  SingularityNET CEO Ben Goertzel: Künstliche Superintelligenz wird in drei bis acht Jahren Realität

„Ein starkes Ökosystem offener Modelle, die auf Verbraucherhardware laufen, ist eine wichtige Absicherung gegen eine Zukunft, in der der von KI erfasste Wert hyperkonzentriert ist und die meisten menschlichen Gedanken von einigen zentralen Servern gelesen und vermittelt werden, die von wenigen Menschen kontrolliert werden“, sagte er. „Solche Modelle sind auch wesentlich risikoärmer als sowohl die Megalomanie von Unternehmen als auch militärische Anwendungen.“

Debatten über AI-Alignment und Sicherheitsbedenken

Buterins Äußerungen kommen zu einer Zeit hitziger Debatten über die Ausrichtung der KI-Entwicklung und die Rücktritte wichtiger Persönlichkeiten aus dem Super-Alignment-Forschungsteam von OpenAI. Ilya Sutskever und Jan Leike haben das Unternehmen verlassen, wobei Leike OpenAI-CEO Sam Altman vorwarf, „glänzende Produkte“ über eine verantwortungsvolle KI-Entwicklung zu stellen. Zudem wurde bekannt, dass OpenAI strenge Geheimhaltungsvereinbarungen (NDAs) hat, die verhindern, dass Mitarbeiter nach ihrem Ausscheiden über das Unternehmen sprechen.

Siehe auch  Amazon: Alexa erhält großes KI-Upgrade

Buterin sieht sich selbst als Zentrist. In einem Essay aus dem Jahr 2023, den er heute erneut bestätigte, erkannte er an, dass „es sehr schwierig erscheint, eine ‘freundliche’ superintelligente KI-dominierte Welt zu haben, in der Menschen mehr als nur Haustiere sind“, aber auch, dass „häufig Version N unserer Zivilisationstechnologie ein Problem verursacht, und Version N+1 es löst. Dies geschieht jedoch nicht automatisch und erfordert bewusste menschliche Anstrengung.“

Dieses Video wird dir auch gefallen!

Autor

  • Luca Koch

    Luca Koch ist als Redakteur für das Magazin Elektronik Informationen tätig und hat sich auf das Thema Künstliche Intelligenz spezialisiert, schreibt jedoch auch über andere Technik-Themen.

    Alle Beiträge ansehen
Siehe auch  Neuer AMD Ryzen AI 300 Chip vorgestellt: Leistungsstarke KI für Notebooks
Avatar-Foto

Luca Koch

Luca Koch ist als Redakteur für das Magazin Elektronik Informationen tätig und hat sich auf das Thema Künstliche Intelligenz spezialisiert, schreibt jedoch auch über andere Technik-Themen.