Anthropic bestätigt neues KI-Modell Claude Mythos nach Datenpanne

Anthropic entwickelt ein neues KI-Modell namens Claude Mythos. Das Unternehmen bezeichnet es als das leistungsfähigste, das es je entwickelt hat. Beatrice Nolan berichtet für Fortune, dass die Existenz des Modells durch einen Fehler bekannt wurde: Interne Dokumente landeten versehentlich in einem öffentlich zugänglichen Datenspeicher.

Ein Sprecher von Anthropic bezeichnete das Modell als einen „step change“, also einen deutlichen Leistungssprung. Derzeit wird es von einer kleinen Gruppe ausgewählter Testkunden erprobt.

Die geleakten Dokumente enthalten einen Entwurf eines Blogbeitrags, in dem das Modell unter zwei Namen erscheint. „Claude Mythos“ erscheint dabei naheliegend als der offizielle Name, während „Capybara“ nach einem internen Codenamen klingt. Anthropic vermarktet seine Modelle bislang in drei Größen: Haiku, Sonnet und Opus. Mythos würde alle bisherigen Stufen übertreffen und wäre teurer als das aktuelle Spitzenmodell.

Im Entwurf heißt es, Claude Mythos erziele bei Tests in den Bereichen Softwareprogrammierung, akademisches Schlussfolgern und Cybersicherheit deutlich bessere Ergebnisse als Claude Opus 4.6.

Besonders besorgniserregend sind die Cybersicherheitsrisiken. Anthropics eigener Entwurf beschreibt das Modell als „derzeit weit vor jedem anderen KI-Modell in Bezug auf Cyberfähigkeiten.“ Das Unternehmen warnt, das System könnte Angreifern helfen, Sicherheitslücken in Software schneller auszunutzen, als Verteidiger reagieren können. Deshalb plant Anthropic, das Modell zunächst nur an Cybersicherheitsorganisationen freizugeben. Diese sollen ihre Systeme stärken können, bevor die Technologie breiter verfügbar wird.

Diese Bedenken fügen sich in einen branchenweiten Trend ein. OpenAI hat sein Modell GPT-5.3-Codex kürzlich als erstes Modell eingestuft, das laut eigenem Sicherheitsrahmen „hohe Fähigkeiten“ im Bereich Cybersicherheit erreicht. Anthropics bestehendes Modell Opus 4.6 kann bereits bisher unbekannte Sicherheitslücken in Software aufdecken. Das Unternehmen räumt ein, dass diese Fähigkeit sowohl für Angriffe als auch für die Verteidigung genutzt werden kann.

Anthropic hat außerdem offengelegt, dass mit der chinesischen Regierung verbundene Hackergruppen versucht haben, das Claude-System zu missbrauchen. In einem dokumentierten Fall nutzte eine staatlich unterstützte chinesische Gruppe Claude Code, um etwa 30 Organisationen zu infiltrieren. Darunter befanden sich Technologieunternehmen, Finanzinstitute und Behörden. Anthropic erkannte die Kampagne, sperrte die betroffenen Konten und benachrichtigte die betroffenen Organisationen.

Die Datenpanne entstand durch eine Fehlkonfiguration im Content-Management-System von Anthropic. Dateien, die in dieses System hochgeladen werden, sind standardmäßig öffentlich zugänglich. Ohne eine aktive Änderung dieser Einstellung kann jeder mit dem richtigen Link auf sie zugreifen. Die Sicherheitsforscher Roy Paz von LayerX Security und Alexandre Pauwels von der Universität Cambridge identifizierten knapp 3.000 bisher unveröffentlichte Dateien in dem offenen Datenspeicher. Nachdem Fortune Anthropic über die Panne informiert hatte, sperrte das Unternehmen den öffentlichen Zugang und sprach von einem „menschlichen Fehler.“

Über den Autor

Mehr zum Thema:

Bleib up-to-date:

Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation

Der aktuelle und umfassende Überblick für Marketing-Profis (3. Ausgabe, Januar 2026)

Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklich gewinnbringend für deine Arbeit ein?

Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.

Mehr Informationen