KI Agenten knacken Smart Contracts – bis zu 8,6 Millionen Dollar pro Angriff

von | 10. Sep. 2025

Der Wettlauf im Codeknacken hat längst begonnen, und Akademiker des University College London und der University of Sydney haben ein System entwickelt, das mithilfe von KI Agenten sehr erfolgreich Schwachstellen in Smart Contracts aufspüren kann. Die Forscher sehen ihre Arbeit darin, Smart Contracts dadurch sicherer zu machen. Parallel dazu laufen an anderer Stelle jedoch wohl ebenfalls viele Forschungen, die das Ziel haben, solche Schwachstellen auszunutzen, vom Diebstahl bis hin zur Manipulation scheinbar sicherer Vorgänge.

KI-Agenten können Smart Contracts automatisch hacken

KI Werkzeuge können eigenständig Krypto stehlen, selbst bei geprüftem Code

Rashmi Ramesh – 1. August 2025

Mit nichts weiter als einer Smart-Contract-Adresse entwickelten Forscher ein autonomes Werkzeug der Künstlichen Intelligenz (KI), das Schwachstellen aufspüren, funktionierende Exploits in der Blockchain-Programmiersprache Solidity schreiben und Gelder abziehen kann.

Was früher ein Team erfahrener Angreifer benötigte, lässt sich nun in wenigen Minuten von einem einzelnen Sprachmodell ausführen, das darauf trainiert ist, wie ein Dieb zu denken und in manchen Fällen sogar gut geprüfte, ‚sichere‘ Protokolle knacken kann.

Akademiker des University College London und der University of Sydney beschreiben in einem Vorab-Papier, wie große Sprachmodelle [Large Language Models – LLMs] mehrstufige, vollständige Kryptoangriffe erzeugen können. (Vgl. arXiv) Der Agent des Teams, genannt A1, beschränkt sich nicht auf Theorien, sondern identifiziert Schwächen, schreibt echten Exploit-Code und führt diesen aus, um den Angriff zu validieren.

„Die Ausgabe von A1 ist nicht nur ein Bericht“, sagte Mitautor Liyi Zhou von der University of Sydney gegenüber der Information Security Media Group. „Die Ausgabe enthält tatsächlich ausführbaren Code, und A1 führt den Code aus, um ihn zu überprüfen. Es verhält sich eher wie ein menschlicher Hacker, es spekuliert nicht nur, sondern schreibt Proof-of-Concept-Code [Nachweis, dass eine Methode in der Praxis funktioniert] und meldet ein Problem nur dann, wenn der Proof of Concept zeigt, dass die Schwachstelle im Smart Contract tatsächlich ausnutzbar ist.

Warum Smart Contracts besonders gefährdet sind

Smart Contracts [selbstausführende Verträge auf der Blockchain, deren Regeln im Code festgeschrieben sind] sind besonders anfällig für KI-gesteuerte Angriffe, da sie öffentlich auf der Blockchain zugänglich sind. Jeder, auch ein KI-Agent, kann Quellcode oder Bytecode abrufen, ohne aufwendige Rückwärtsanalyse. Das erleichtert es Sprachmodellen, die Logik zu prüfen und Schwachstellen zu erkennen.

Smart Contracts folgen klaren, regelbasierten Abläufen mit vorhersehbaren Zustandsänderungen, genau passend zu den schrittweisen Denkfähigkeiten fortschrittlicher KI-Modelle. Werkzeuge wie A1 können potenzielle Angriffspfade simulieren und Exploits schnell validieren, indem sie Testtransaktionen in isolierten Umgebungen ausführen.

Exploits in Smart Contracts zeigen oft sofort sichtbare Effekte, etwa Geldüberweisungen oder abgebrochene Transaktionen. Dies gibt KI-Agenten ein direktes Signal, ob der Angriff funktioniert hat, und erlaubt ihnen, ihre Methode autonom zu verfeinern. Traditionelle Systeme sind komplexer, da hier Betriebssysteme, Backends oder versteckte Umgebungen eine Rolle spielen, Bereiche, in denen KI-Modelle noch Probleme haben.

A1 entdeckt neue Schwachstellen

Die Forscher betonen, dass A1 Schwachstellen finden konnte, die nicht Teil seines Trainingsdatensatzes waren – darunter auch Vorfälle, die sich erst nach dem Trainingsstopp des Modells auftraten. Das System gab also nicht nur bekannte Fehler wieder, sondern entdeckte neue und lieferte von Grund auf entwickelte Exploits.

„Wir konnten zeigen, dass Modelle wie o3-pro Schwachstellen aufspüren, die erst nach ihrem Trainingszeitpunkt bekannt wurden“, sagte Zhou. Sie charakterisierte A1s Leistung als „so gut wie ein durchschnittlicher Sicherheitsexperte, wenn nicht sogar besser“.

Eine Überraschung: A1 konnte mehrstufige Exploits erstellen, die über die Fähigkeiten klassischer Fuzzer [automatisierte Testwerkzeuge, die zufällige Eingaben nutzen, um Schwachstellen aufzudecken] hinausgehen. Der Agent plante koordinierte Angriffe mit mehreren Akteuren und Hilfs-Contracts, ohne fest einprogrammierte Regeln. In einem Fall startete A1 einen Angriff, bestätigte ihn und führte einen Krypto-Diebstahl in weniger als zwei Minuten aus.

Einschätzung aus der Branche

Das Blockchain-Analyseunternehmen TRM Labs erklärte, die Ergebnisse zeigten die wachsende Bedrohung durch KI-gesteuerte Smart-Contract-Exploits.

„KI kann die Entdeckung von Schwachstellen automatisieren und gezieltere Angriffe entwickeln. Damit wird sie zu einem mächtigen Werkzeug in den Händen von Cyberkriminellen,“ sagte Ari Redbord, Leiter der globalen Richtlinien bei TRM Labs.

Die Autoren des Papers betonten, dass A1 Schwachstellen fand, die selbst den typischen Prüfwerkzeugen von Auditoren entgingen. Da das Sprachmodell die Logik des Contracts Schritt für Schritt durchgeht und Hilfs-Contracts koordiniert, entstehen neuartige und zielgenaue Angriffspfade, genau die, die automatisierte Scans oder erfahrene Prüfer übersehen könnten.

Zhou riet DeFi-Projekten [„Decentralized Finance“ – also dezentrale Finanzanwendungen auf Blockchain-Basis], dieselben Tools wie Angreifer zu verwenden:

„Projektteams sollten Werkzeuge wie A1 selbst nutzen, um ihre Protokolle kontinuierlich zu überwachen, statt darauf zu warten, dass Dritte Schwachstellen finden. Vertraut man auf Dritte, setzt man darauf, dass sie in gutem Glauben handeln und sich mit einer 10%-Prämie zufriedengeben, sicherheitstechnisch eine seltsame Annahme.“

Ausblick

Das Forschungsteam hinter A1 hat bislang keine Zero-Day-Schwachstellen [Zero-Day = bisher unbekannte und nicht geschlossene Sicherheitslücke] veröffentlicht, steht aber mit der Ethereum-Sicherheitscommunity in Kontakt, um verantwortungsvolle Strategien zur Schadensbegrenzung zu entwickeln. Die Architektur ist derzeit auf Ethereum zugeschnitten, könnte aber auf andere Blockchain-Systeme ausgeweitet werden.

„KI verfeinert und beschleunigt bestehende Techniken, anstatt völlig neue zu erfinden“, sagte Redbord von TRM Labs. „Das erleichtert es Angreifern, ihre Operationen zu automatisieren und zu skalieren – und genau darin liegt die große Herausforderung der Zukunft.“

Quelle: BANK INFO SECURITY

Auszug aus einem Artikel der Forscher:

KI Agent erzeugt Smart Contract Exploits

Arthur Gervais, Liyi Zhou – 8. Juli 2025, zuletzt überarbeitet am 7. August 2025

… Frühe Studien zeigen jedoch, dass reines Prompting [Eingabe von Anweisungen an ein Sprachmodell] bei LLMs nur unbestätigte Vermutungen zu Schwachstellen erzeugt, mit einer hohen Quote an Fehlalarmen.
Um dieses Problem zu lösen, stellen die Autoren A1 vor: ein agentenbasiertes System, das jedes LLM in einen durchgängigen Exploit Generator verwandelt.
A1 stellt sechs spezialisierte Werkzeuge für die autonome Entdeckung von Schwachstellen bereit, von der Analyse des Vertragsverhaltens bis zum Testen von Strategien auf realen Blockchain Zuständen. Alle Ergebnisse werden durch Ausführung validiert, sodass nur tatsächlich profitable Proof of Concept Exploits gemeldet werden.

Die Forscher testeten A1 an 36 realen, verwundbaren Contracts auf Ethereum und der Binance Smart Chain. Auf dem VERITE Benchmark [VERITE in der A1-Studie ist ein Benchmark zur Bewertung der Effektivität von Exploit-Generierung, insbesondere im Hinblick auf real ausnutzbare Schwachstellen in Smart Contracts] erreichte A1 eine Erfolgsquote von 63 %. In den erfolgreichen Fällen extrahierte das System bis zu 8,59 Millionen US Dollar pro Exploit und insgesamt 9,33 Millionen US Dollar. In 432 Experimenten mit sechs verschiedenen LLMs zeigte sich, dass die meisten Exploits innerhalb von fünf Iterationen entdeckt wurden, bei Kosten zwischen 0,01 und 3,59 US Dollar pro Versuch.

Eine Monte Carlo Analyse [statistische Methode, bei der mithilfe vieler Zufallssimulationen die Wahrscheinlichkeit von Ergebnissen abgeschätzt wird] historischer Angriffe ergab, dass eine sofortige Erkennung von Schwachstellen eine Erfolgswahrscheinlichkeit von 86 bis 89 % hat, die jedoch bei einer Verzögerung von einer Woche auf nur noch 6 bis 21 % fällt [je länger nach einer entdeckten Schwachstelle gewartet wird, desto wahrscheinlicher ist es, dass sie bereits behoben oder von anderen ausgenutzt wurde, wodurch die Erfolgschancen stark sinken].
Die ökonomische Analyse zeigt eine bedenkliche Asymmetrie: Angreifer erzielen bereits ab einem Exploit Wert von 6.000 US Dollar Profitabilität, während Verteidiger mindestens 60.000 US Dollar investieren müssen. Dies wirft grundlegende Fragen auf, ob KI Agenten zwangsläufig den Angreifern mehr nützen als den Verteidigern.

Quelle: arXiv – Auszug

Artikelempfehlungen:

Telegram Logo „Bye Bye Staat & Hallo Freiheit“
Abonniere jetzt LegitimCrypto auf Telegram!

Legitim-Newsletter

 

Abonniere den Newsletter,


um die wichtigsten Updates per E-Mail zu erhalten!

Du hast dich erfolgreich angemeldet - danke!