Anthropic hat sich als starker Konkurrent in der Künstliche-Intelligenz-Branche etabliert. Das Unternehmen konzentriert sich auf Enterprise-Kunden und positioniert sich als sicherheitsbewussteste KI-Firma. Der Ansatz zahlt sich kommerziell und bei Investoren aus. Kritiker fragen jedoch, ob das Unternehmen seine Prinzipien halten kann, während es um Marktanteile kämpft.
Das Startup aus San Francisco wuchs von 1 Milliarde Dollar annualisiertem Umsatz Anfang 2024 auf mehr als 9 Milliarden Dollar bis Ende 2025. Das Unternehmen prognostiziert, dass der annualisierte Umsatz bis Ende dieses Jahres 30 Milliarden Dollar übersteigen wird. Anthropic kontrolliert 40 Prozent des Enterprise-AI-Markts und sammelt 10 Milliarden Dollar bei einer Bewertung von 350 Milliarden Dollar ein.
Der Erfolg des Unternehmens basiert auf Claude Code, einem Tool für Software-Engineering, das seit seinem Launch zum Branchenführer wurde. Das System kann bestehenden Code lesen, Aufgaben planen und ausführen. Es zeigt frühe „agentische“ Fähigkeiten, die es AI-Modellen erlauben, komplexe Aufgaben selbstständig zu erledigen. Das Tool hat den Begriff „Claude Benders“ für Marathon-Coding-Sessions unter Entwicklern geprägt.
Anthropics Hintergrund
Anthropic wurde 2021 von sieben ehemaligen OpenAI-Forschern gegründet, darunter die Geschwister Dario und Daniela Amodei, die als CEO und Präsidentin fungieren. Die Gründer verließen OpenAI wegen Meinungsverschiedenheiten darüber, wie die Welt auf KI vorbereitet werden sollte, und wegen Bedenken, dass das Unternehmen Sicherheit nicht ernst genug nahm.
Das Unternehmen hat eine Kultur entwickelt, die Mitarbeiter und Beobachter als missionsbesessen beschreiben. Zweimal im Monat versammelt Dario Amodei die Belegschaft für „Dario Vision Quests“, bei denen er über den Aufbau vertrauenswürdiger KI-Systeme spricht. Das Unternehmen arbeitet mit minimalen Planungszyklen und erstellt keine Betriebspläne für mehr als 90 Tage im Voraus. Mitarbeiter beschreiben die Arbeitsumgebung als improvisatorisch, mit einem „Ja, und“-Ansatz, bei dem Ideen willkommen sind und kollektiv von dem, was sie „Hive Mind“ nennen, bewertet werden.
Diese Kultur scheint ungewöhnliche Produktivität zu erzeugen. Anthropic hat allein im Januar mehr als 30 Produkte und Features gelauncht, so das Unternehmen. Die etwa 2.000 Mitarbeiter liefern Produkte schneller als Konkurrenten mit deutlich größeren Teams. OpenAI hat doppelt so viele Mitarbeiter wie Anthropic, während Microsoft und Google 228.000 und 183.000 Mitarbeiter haben.
Der Sicherheitsfokus hat Claude zu einem der ehrlichsten Modelle auf dem Markt gemacht, laut Rankings von Scale.ai-Forschern. Die Modelle halluzinieren seltener und geben eher Unsicherheit zu. Anthropic veröffentlicht eine „Constitution“ für Claude, die detailliert, wie es sich verhalten soll. Sie wurde kürzlich auf 22.000 Wörter erweitert und adressiert Themen wie emotionale Abhängigkeit und Nutzer-Manipulation.
Der Policy-Ansatz des Unternehmens konzentriert sich auf Transparenzanforderungen statt auf Regulierung der KI-Entwicklung. Jack Clark, Mitgründer und Policy-Chef, argumentiert, dass Regierungen Berichte darüber verlangen sollten, was interne Tests zeigen. Er vergleicht KI-Unternehmen mit Fabriken, bei denen Regulierer sich für Outputs interessieren statt für interne Prozesse.
Alle sieben Anthropic-Mitgründer sind im Unternehmen geblieben. Investoren nennen diese Stabilität als Vorteil gegenüber OpenAI, das acht seiner elf Gründungsmitglieder verloren hat. Das Unternehmen hat zugesagt, keine Werbung in seine Produkte einzuführen und grenzt sich damit von Rivalen wie OpenAI ab, das Testwerbung in ChatGPT gestartet hat.
Kritik
Das Unternehmen steht jedoch in der Kritik wegen Widersprüchen zwischen Messaging und Handlungen. Anthropic veröffentlicht Forschung über gefährliche Fähigkeiten in Claude, einschließlich Unterstützung bei Biowaffen und Insider-Bedrohungsverhalten, entwickelt die Modelle aber weiter. CEO Dario Amodei warnt, dass KI bis zu 50 Prozent der Einstiegsjobs im Büro innerhalb von ein bis fünf Jahren eliminieren könnte. Anthropics eigene Produkte könnten den Jobverlust beschleunigen.
Anthropic-Mitarbeiter räumen ein, dass sie nicht ernsthaft erwogen haben, die KI-Entwicklung zu verlangsamen. Einige Forscher sagten The Atlantic, sie würden es bevorzugen, wenn die Branche mit halber Geschwindigkeit arbeiten würde, aber alle glaubten, eine solche Verlangsamung sei unmöglich. Der Konsens ist, dass Wettbewerbsdruck und Kapitalmärkte Geschwindigkeit verlangen.
Das Unternehmen suchte Investitionen aus den Vereinigten Arabischen Emiraten und Katar, Länder, die Amodei intern als Bereicherung von „Diktatoren“ beschrieb, trotz öffentlicher Warnungen vor autoritärer KI. Auf Nachfrage sagte Amodei, das Unternehmen habe nie zugesagt, keine Finanzierung aus dem Nahen Osten zu suchen, und solche Investoren würden die Firma nicht kontrollieren.
Quellen: The Atlantic, Bloomberg, Steve Yegge, Financial Times
Artikelbild von TechCrunch, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=148412072
