Claude Code nur noch für Max oder: Wahre Kosten von LLMs
/ 4 min read
Table of Contents
Das Ende der günstigen KI — warum die goldene Ära erste Risse bekommt
LLMs fühlen sich derzeit an wie eine günstige All-Inclusise Flatrate: unbegrenzt Zugang für kleines Geld. Aber die ersten Schilder mit „Aufpreis für XYZ” hängen schon. Und Anthropic hat gestern gezeigt, wie schnell sich die Spielregeln ändern können.
Der Vorfall
Gestern Abend hatte Anthropic plötzlich, unvermittelt und ohne Ankündigung Claude Code nur noch für MAX-Subscriber auf der eigenen Homepage angeboten. Hobbyisten, Frickler und Entwickler/Firmen, die das 20-€-Pro-Paket pro Monat buchen, hatten zumindest laut Preisseite keinen Zugriff mehr auf eines der aktuell spannendsten Developer-Tools im KI-Ökosystem.
Nach wenigen Stunden und einem Sturm negativen Feedbacks ruderte Anthropic zurück. Die offizielle Erklärung: ein „Experiment” bei lediglich 2 % der User. Wahrscheinlicher ist ein Trial Balloon, um die Schmerzgrenze der Community und Kunden auszuloten.
Strategisch ist die Aktion schwer nachvollziehbar. Claude Code ist derzeit eines der besten Coding-Tools auf dem Markt und ein echtes Alleinstellungsmerkmal für Anthropic. OpenAI versucht mit Codex etwas Vergleichbares aufzubauen. In dieser Situation das eigene Flaggschiff-Feature hinter eine höhere Paywall zu schieben und sei es nur als Experiment ist ein Geschenk an die Konkurrenz. Der Reputationsverlust dürfte immens sein: Entwickler, Firmen und der Einkauf haben ein langes Gedächtnis, und das Vertrauen, dass ein Tool, auf das man seine gesamten Entwicklungs-Workflows aufbaut, morgen noch verfügbar ist wurde stark angegriffen.
Noch schwerer wiegt die Signalwirkung für Unternehmen. Wer als Firma KI-Tools in seine Prozesse integriert, Mitarbeiter darauf schult und Workflows darauf aufbaut, muss sich darauf verlassen können, dass die gebuchten Funktionen morgen/übermorgen noch da sind. Ein Anbieter, der Features über Nacht aus einem bezahlten Paket entfernt egal ob als „Experiment” oder nicht wird es zukünftig schwerer haben. Ein Beispiel dafür ist die Google Cloud die darunter leidet das Google häufig Funktionen entfernt.
Das Kapazitätsproblem
Hinter der Aktion steckt aber wahrscheinlich ein reales Problem. Aufgrund extrem guter Publicity und Fehler der Konkurrenz ist Anthropic derzeit auf einem absoluten Höhenflug. Die Token-Nutzung steigt kontinuierlich. Gleichzeitig hat OpenAI einen Großteil der verfügbaren und zukünftigen Rechenkapazität in den großen Cloud-Rechenzentren geblockt. Jeder reservierte Chip fehlt der Konkurrenz, und NVIDIAs Produktionskapazitäten sind begrenzt.
Anthropic hat also immer mehr User auf einer begrenzten Plattform. Das Wachstum stößt an harte physische Grenzen, und der erste logische Schritt heißt: Verknappung.
Hinzu kommt der Druck von oben — und der hat gerade eine neue Dimension erreicht. Erst am Montag hat Amazon weitere 5 Milliarden Dollar in Anthropic investiert. Im Gegenzug hat sich Anthropic verpflichtet, in den nächsten zehn Jahren über 100 Milliarden Dollar für AWS-Infrastruktur auszugeben. Amazon gibt also 5 Milliarden und bekommt langfristig 100 Milliarden zurück über die eigene Cloud-Plattform. Ob Anthropic in der Preisgestaltung überhaupt noch frei agiert oder ob die Investoren auf schnellere Monetarisierung drängen, ist eine offene und zunehmend drängende Frage.
Vergangene Tech-Zyklen waren ähnlich
Der Vergleich zu anderen Tech-Zyklen drängt sich nahezu auf: Streaming ist mit Netflix als günstige All-in-One-Lösung gestartet. Heute brauchen wir fünf Abos, um eine halbwegs gute Abdeckung zu erreichen, und zahlen in Summe deutlich mehr, als US-Haushalte früher für Kabelfernsehen ausgegeben haben.
Uber ist massiv subventioniert gestartet und hat klassische Taxis in vielen Märkten verdrängt. Jetzt steigen die Preise, der Service wird schlechter, und die Fahrer verdienen weniger als je zuvor.
Das Muster ist immer dasselbe: Subventionieren, Marktanteile gewinnen, Konkurrenz verdrängen — und dann die Preisschraube anziehen, wenn die Nutzer abhängig sind.
Fehlende Planungssicherheit für Kunden und Unternehmen
Claude Code ist kein Casual-Feature. Entwickler, die damit produktiv arbeiten, generieren einen enormen Token-Verbrauch jede Code-Analyse, jeder Refactoring-Vorschlag, jede Debug-Session frisst Rechenleistung. Genau diese Power-User will und muss Anthropic in Zukunft segmentieren. Betriebswirtschaftlich ist das logisch: Die Pro-User mit ihren 20 € im Monat sind vermutlich die „teuersten” Kunden, weil sie viel konsumieren, aber wenig zahlen. Kommunikativ hingegen ist es heikel, weil genau diese Entwickler die meisten und lautesten Stimmen in der Community sind.
Der Gegendruck von unten
Die Frage ist nicht, ob günstige LLMs an ein Ende kommen, sondern nur wann. Spannender ist die Gegenbewegung: Kann lokaler Compute so günstig und gut werden, dass die Tech-Konzerne gezwungen werden, weiter zu subventionieren?
Die Zeichen sind nicht schlecht: Apple Silicon wird mit jedem Chip-Generation besser für lokale LLMs. Wenn ein lokales Modell (QWEN, Mistral) auf einem MacBook 80 % der Qualität eines Cloud-Frontier-Modells liefert, sinkt die Zahlungsbereitschaft für teure API-Abos dramatisch.
Die großen Anbieter stehen dann in einem Zweifronten-Konflikt: Nach oben müssen sie die Preise erhöhen, um ihre Investoren zu befriedigen. Nach unten fressen Open-Source-Alternativen ihren Markt.
Fazit
Die Party des günstigen, subventionierten KI-Zugangs war gut aber irgendjemand muss die Rechnung bezahlen. Sowohl monetär als auch mit (Trainings-)Daten. Schlussendlich werden wir als Konsumenten oder Firmen das sein, wenn wir nicht rechtzeitig die Zügel bzw. die LLMs selbst in die Hand nehmen und lokal betrieben.