Anthropic kippt Sicherheitsversprechen: KI-Entwicklung läuft weiter – auch ohne garantierte Schutzmaßnahmen

Anthropic kippt Sicherheitsversprechen: KI-Entwicklung läuft weiter – auch ohne garantierte Schutzmaßnahmen
Illustrationen erstellt mit KI-Bildgenerierung

Anthropic hat eine der zentralen Selbstverpflichtungen aus seiner Sicherheitsrichtlinie gestrichen. Seit 2023 hatte das Unternehmen versprochen, neue KI-Modelle grundsätzlich nur dann zu entwickeln und zu veröffentlichen, wenn ausreichende Schutzmaßnahmen im Voraus gewährleistet werden können. Diese Garantie existiert in ihrer ursprünglichen Form nicht mehr. „Wir hatten das Gefühl, dass es niemandem helfen würde, wenn wir aufhören, KI-Modelle zu trainieren", sagte Jared Kaplan, Chief Science Officer von Anthropic, in einem exklusiven Interview mit TIME.

Die aktualisierte Responsible Scaling Policy (RSP) enthält nun eine entscheidende Einschränkung: Anthropic will Entwicklungen künftig nur noch dann pausieren, wenn das Unternehmen sich klar als Spitzenreiter im KI-Rennen sieht und gleichzeitig erhebliche Katastrophenrisiken bestehen. Damit reagiert Anthropic auf den wachsenden Wettbewerbsdruck durch OpenAI, Google und andere. Bloomberg beschreibt die Änderung als notwendig, „um mit einem sich schnell verändernden Feld Schritt zu halten."

Die Entscheidung fällt in eine Phase des rapiden Wachstums. Anfang Februar 2026 schloss Anthropic eine Series-G-Finanzierungsrunde über 30 Milliarden US-Dollar ab, die das Unternehmen mit 380 Milliarden Dollar bewertet — die zweitgrößte Venture-Capital-Runde aller Zeiten. Der Jahresumsatz liegt bei 14 Milliarden Dollar und wuchs nach Unternehmensangaben in den letzten drei Jahren jeweils um mehr als das Zehnfache. Besonders das KI-Coding-Tool Claude Code, dessen annualisierter Umsatz inzwischen 2,5 Milliarden Dollar erreicht hat, treibt das Wachstum im Unternehmenskundenbereich an.

Anthropic betont, die neue RSP sei transparenter als die alte: Das Unternehmen verpflichtet sich nun zu regelmäßigen öffentlichen Risikoberichten alle drei bis sechs Monate sowie zu detaillierten „Frontier Safety Roadmaps". Kritiker aus der Sicherheitsforschung zeigen sich dennoch besorgt. Der Wechsel von klar definierten Auslösern zu einem stärker auf Eigeneinschätzung basierenden Ansatz berge das Risiko, dass sich Gefahren schleichend aufbauen, ohne einen eindeutigen Alarm auszulösen.

Quellen:

Illustrationen erstellt mit KI-Bildgenerierung