Forscher entwickeln Exploits per GPT-4 aus Sicherheitswarnungen

Die Tests basieren auf tatsächlich existierenden Sicherheitslücken. GPT-4 erreicht eine Erfolgsquote von 87 Prozent. Alle anderen getesteten LLMs scheitern an der Aufgabe.

Computerwissenschaftler der University of Illinois Urbana-Champaign (UIUC) haben mithilfe von OpenAIs GPT-4 Exploits für tatsächlich existierende Schwachstellen in Software entwickelt. Das große Sprachmodell (Large Language Model, LLM) fütterten sie lediglich mit der Beschreibung der Anfälligkeit in der offiziellen CVE-Warnmeldung.

Im Rahmen ihrer Versuche setzten die Forscher auch LLMs anderer Anbieter ein, darunter OpenHermes-2.5-Mistral-7B, OpenChat 3.5 und mehrere Versionen von LLaMA-2 Chat. Exploits lieferte aber lediglich GPT-4, und zwar mit einer Erfolgsquote von 87 Prozent.

„In dieser Studie zeigen wir, dass LLM-Agenten in der Lage sind, reale One-Day-Schwachstellen selbstständig auszunutzen. Derzeit ist nur GPT-4 mit der CVE-Beschreibung in der Lage, die Schwachstellen auszunutzen“, heißt es in dem Bericht der Forscher. „Unsere Ergebnisse zeigen sowohl die Möglichkeit einer neuen Bedrohung als auch, dass das Aufdecken einer Schwachstelle schwieriger ist als deren Ausnutzung. Nichtsdestotrotz unterstreichen unsere Ergebnisse die Notwendigkeit für die breitere Cybersicherheits-Community und LLM-Anbieter, sorgfältig darüber nachzudenken, wie LLM-Agenten in Verteidigungsmaßnahmen integriert werden können und wie ihr weitreichender Einsatz aussehen könnte.“

„In 13 von 15 Fällen, wobei sogar CVEs zum Einsatz kamen, also wirklich kritische Schwachstellen, war die KI erfolgreich, eigenständig Reverse Engineering zu betreiben. Das ist zwar keine Fähigkeit, die ein sehr guter Hacker nicht auch besitzt, aber die Geschwindigkeit ist hier entscheidend. Zudem ist es laut den Forschern ein technologischer Quantensprung im Vergleich zu den Vorgängermodellen, wie beispielsweise GPT-3.5“, kommentiert Marco Eggerling, Global CISO bei Check Point, die Studie.

Eggerling betonte zudem, dass bei dem Experiment auch Schwachstellen zum Einsatz kamen, die erst nach dem Training von GPT-4 bekannt geworden seien. Die KI sei also erstmalig mit ihnen konfrontiert worden. „Wenn man den Gedanken weiterspinnt und davon ausgeht, dass Hacker versuchen werden, auch diese Fähigkeit für den Masseneinsatz zu missbrauchen, dann wartet hier die nächste Welle an KI-gestützten IT-Attacken auf die Welt. Umso wichtiger ist es, erneut zu betonen, dass Unternehmen und Behörden, Krankenhäuser und Einrichtungen eine konsolidierte IT-Sicherheitsarchitektur implementieren sollten, während die Politik sich Gedanken darüber machen muss, mit welchen Regularien sie den Missbrauch von KI-Technologie bekämpfen kann.“

Themenseiten: ChatGPT, KI, Künstliche Intelligenz, Schwachstellen, Security, Sicherheit

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Forscher entwickeln Exploits per GPT-4 aus Sicherheitswarnungen

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *