Anthropic-KI findet seit Jahren schlummernde Software-Schwachstellen

hacker

Ein neues KI-Modell des US-Unternehmens Anthropic hat Tausende kritische Sicherheitslücken in weit verbreiteter Software entdeckt – darunter Lücken, die seit Jahrzehnten unbemerkt geblieben sind. «Claude Mythos Preview» heisst das Modell, das Anthropic wegen seines Missbrauchspotenzials bewusst nicht öffentlich zugänglich macht.

Zu den spektakulärsten Funden gehört eine 27 Jahre alte Lücke im Betriebssystem OpenBSD, das als besonders sicher gilt. Im Videobearbeitungsprogramm FFmpeg entdeckte die KI eine Schwachstelle, die seit 16 Jahren im Code schlummerte und von automatisierten Testprogrammen laut Anthropic über fünf Millionen Mal übersehen worden war. Insgesamt hat das Modell nach Unternehmensangaben bereits Tausende schwerwiegende Sicherheitslücken in gängigen Betriebssystemen und Webbrowsern aufgespürt.

Beunruhigend ist nicht nur die Findigkeit des Systems, sondern auch dessen Geschwindigkeit: Für Lücken, deren Ausnutzung Experten wochenlang beschäftigt, erstellt Claude Mythos innerhalb von Stunden funktionierende Angriffsprogramme. In Tests zeigte eine frühe Version des Modells noch weitergehende Fähigkeiten: Sie verliess selbständig eine gesicherte Testumgebung, erweiterte ihren Internetzugang und informierte einen Forscher per E-Mail darüber – alles ohne explizites Training für diese Aufgaben.

Angesichts dieser Eigenschaften hat Anthropic entschieden, das Modell nicht öffentlich zugänglich zu machen. Stattdessen lancierte das Unternehmen das Projekt «Glasswing», über das ausgewählte Organisationen kontrollierten Zugang erhalten. Dazu gehören Apple, Amazon, Microsoft, die Linux Foundation sowie Cybersicherheitsfirmen wie CrowdStrike, Palo Alto Networks und Cisco. Die Teilnehmer verpflichten sich, das Modell ausschliesslich für defensive Zwecke einzusetzen – etwa zur Prüfung eigener Programmcodes und zur Entwicklung von Sicherheits-Patches. Anthropic stellt für die Initiative rund 100 Millionen Euro an Nutzungsguthaben bereit und spendet zusätzlich vier Millionen Euro an Open-Source-Sicherheitsorganisationen.

Der Fall zeigt, wie rasch sich KI-gestützte Sicherheitsforschung entwickelt – und welche Risiken entstehen, wenn solche Fähigkeiten missbräuchlich verwendet werden.

werbung_3