Wird sich AI bald selbst programmieren können?
Zwischen den Jahren ruht normalerweise auch das Silicon Valley. Nicht so in diesem Jahr, denn ein angeblicher Wendepunkt beim Vibecoding hat für reichlich Diskussionen gesorgt.
Frohes Neues!
Na, auch über die Feiertage fleißig Apps und Webseiten mit Claude Code gebaut wie die AI-Twitter-Bubble? Nein? Keine Sorge, ich auch nicht. Denn selbst wenn diese Vibecoding-Apps und -Webseiten mittlerweile um einiges besser sind als noch vor ein paar Monaten, gehört doch mehr dazu, um sie im Alltag wirklich sinnvoll einzusetzen – geschweige denn, damit Geld zu verdienen. Produktdesign, Sicherheitsinfrastrukturen und Marketing zum Beispiel, um nur einige zu nennen. Nur weil man etwas (in Teilen) technisch entwickeln kann, heißt das noch lange nicht, dass wir jetzt alle als erfolgreiche One-Man-Show reich werden. Auf der anderen Seite sollte man aber auch nicht den Fehler machen und alles direkt abkanzeln, wie Shakeel Hashim in seinem Transformer-Substack richtigerweise anmerkt:
It is all too easy for non-coders — policymakers, journalists, and knowledge workers in general — to hear this and shrug. “AI can code” sounds like a development that affects software engineers, not the rest of us. When your job doesn’t involve GitHub repositories or terminal windows, a better coding assistant seems like someone else’s problem.
This misses something crucial. When people hear “coding,” they picture a specialist skill for a specialist domain. They don’t picture booking theater tickets, analyzing spreadsheets, or processing invoices. But those are all tasks that happen through software — which means they’re all tasks that can be accomplished by an AI that can write and execute code. They are, in fact, all tasks that Claude Code has done for me in the last two weeks.
Code, after all, is just a language by which we instruct computers to do things. An AI agent that can code, then, can … do almost anything you do on a computer. The question isn’t “is this a coding task?” It’s “can this be done digitally?” If the answer is yes, there is a very good chance that Claude Code can do it.
Coding hat sich aus vielerlei Gründen direkt zu Beginn des AI-Hypecycles im Jahr 2022 als einer der zentralen Anwendungsbereiche für LLMs herausgestellt. Aus meiner Sicht sind dies die vier wichtigsten:
- Code ist leicht zu prüfen, denn anders als bei lyrischer Prosa oder der Beantwortung von komplexerer Fragen können Programmieraufgaben via Unit-Tests oder Compile-Time-Checks automatisch getestet werden. Entweder der Code funktioniert oder nicht. Dieses klare Ergebnis ist ein perfektes Signal für Reinforcement Learning.
- Programmiersprachen, Frameworks und APIs folgen klaren Strukturen, die weitestgehend öffentlich verfügbar sind (z. B. bei Stack Overflow¹).
- IDE-Integrationen/Copilots wie Cursor sind leicht monetarisierbar, weil eine bessere Effizienz im direkten Zusammenhang mit einem höheren Gewinn für Unternehmen steht (mehr Output bzw. weniger Entwickler).
- Jedes digitale Produkt besteht aus Code. Wenn das LLM also wie ein Senior Developer programmieren kann, baut es nicht nur individuelle Webseiten und Apps auf Abruf, sondern entwickelt sich auch selbst weiter. Und das 24/7.
Der letzte Punkt zeigt, warum ein zunächst unscheinbares Modell-Update wie Claude Opus 4.5 oder ChatGPT 5.2 mittelfristig große Auswirkungen darauf haben könnte, wie wir AI in Zukunft nutzen werden. Vorausgesetzt, wir sind bereits an dem Wendepunkt, den manche propagieren. Glaubt man Anthropic, werden scheinbar bereits 80 % des Codes von Claude Code von Claude Code selbst geschrieben. Nach dem Pareto-Prinzip würde ich jedoch erwarten, dass die fehlenden 20 % deutlich schwerer zu erreichen sind und es noch einige Zeit dauern wird, bis die AI sich wirklich vollständig selbst programmieren kann.
¹ Stack Overflow war in der Pre-LLM-Ära die Go-to-Plattform für Entwickler und ist mittlerweile quasi tot, wie diese Grafik eindrücklich zeigt.