Anthropic, das KI-Unternehmen hinter der Claude-Modellfamilie, hat versehentlich den vollständigen Quellcode seines Softwaretools Claude Code veröffentlicht. Eine Debug-Datei mit rund 512.000 Zeilen Code war in einem Software-Update enthalten und kurzzeitig öffentlich zugänglich, bevor Anthropic sie entfernte. Der Code wurde schnell kopiert und im Internet verbreitet.
Anthropic bestätigte den Vorfall in einer Erklärung: Der Release habe internen Quellcode enthalten, es seien jedoch keine Kundendaten oder Zugangsdaten betroffen gewesen. Es habe sich um einen Fehler beim Zusammenstellen des Software-Pakets gehandelt, nicht um einen Sicherheitsangriff.
Der geleakte Code enthüllte mehrere Details über die interne Funktionsweise von Claude Code.
Wichtige Erkenntnisse aus dem Leak:
- Das Tool nutzt ein mehrstufiges Gedächtnissystem, das die KI während langer Arbeitssitzungen fokussiert hält, anstatt alles zu speichern, was ihr begegnet.
- Ein Feature namens KAIROS deutet auf einen noch unveröffentlichten Modus hin, in dem das Tool als Hintergrundprozess laufen würde, auch ohne aktive Nutzung.
- Ein sogenannter Undercover-Modus weist die KI an, ihre Mitarbeit zu verbergen, wenn sie zu öffentlich sichtbaren Softwareprojekten beiträgt.
- Der Code enthält Mechanismen, um Daten zu verfälschen, wenn Mitbewerber Claude-Code-Aktivitäten aufzeichnen, um das Tool nachzubauen.
Der Entwickler Alex Kim, der den Leak analysierte, betonte, dass die Offenlegung nicht nur technische Details preisgibt, sondern auch interne Produktpläne, die Wettbewerber nun für ihre eigene Entwicklung nutzen können.
Quellen: VentureBeat, Alex Kim’s Blog
