Mit dem rasanten Fortschritt der künstlichen Intelligenz verlassen sich immer mehr Entwickler auf KI-generierten Code. Dieser Trend ist besonders deutlich bei den neuesten Start-ups des bekannten Silicon Valley-Accelerators Y Combinator (YC) zu beobachten. Jared Friedman, Managing Partner von YC, gab in einem kürzlich auf YouTube veröffentlichten Gespräch bekannt, dass bei den Start-ups des Winter-Batches 2025 (W25) ein Viertel seinen Code zu 95 % von künstlicher Intelligenz generieren lässt.
Friedman stellte klar, dass diese erstaunliche Quote von 95 % nicht den importierten Bibliothekscode umfasst, sondern sich auf den Kerncode bezieht, der von Mensch und KI gemeinsam eingegeben wurde. Er betonte: „Wir fördern keine technisch unerfahrenen Gründer. Diese Leute sind alle technisch versiert und könnten Produkte problemlos von Grund auf neu erstellen. Vor einem Jahr hätten sie das auch getan, aber jetzt werden 95 % des Produktcodes von KI erstellt.“
In dem Video mit dem Titel „Ambient Coding ist die Zukunft“ diskutierten Friedman, YC-CEO Garry Tan, Managing Partner Harj Taggar und Partnerin Diana Hu diesen Trend. Sie erwähnten, dass Entwickler zunehmend dazu übergehen, Code mit natürlicher Sprache und Intuition zu schreiben, anstatt auf die traditionelle zeilenweise Programmierung zurückzugreifen. Im vergangenen Monat verwendete Andrej Karpathy, ehemaliger KI-Leiter bei Tesla und ehemaliger Forscher bei OpenAI, den Begriff „Ambient Coding“, um diese neue Art des Codierens mit großen Sprachmodellen (LLM) zu beschreiben, bei der Entwickler sich mehr auf die Absicht als auf die Code-Details konzentrieren.
KI-generierter Code ist jedoch nicht fehlerfrei. Zahlreiche Studien und Berichte zeigen, dass KI-generierter Code Sicherheitslücken aufweisen und zu Ausfällen oder Fehlern in Anwendungen führen kann, was Entwickler zu umfangreichen Debugging- oder Korrekturarbeiten zwingt. Hu wies in der Diskussion darauf hin, dass Entwickler, selbst wenn das Produkt stark auf KI angewiesen ist, eine Schlüsselkompetenz benötigen: das Lesen von Code und das Erkennen von Fehlern. „Man muss ein Gespür dafür haben und ausreichend geschult sein, um zu beurteilen, ob die Ausgabe eines LLM gut oder schlecht ist. Für gutes ‚Ambient Coding‘ braucht man immer noch Wissen und Augenmaß, um zwischen gut und schlecht zu unterscheiden“, sagte sie.
Garry Tan stimmte dem zu und fügte hinzu, dass Gründer immer noch eine klassische Programmierausbildung benötigen, um die Stabilität des Produkts bei langfristiger Entwicklung zu gewährleisten. „Angenommen, ein Start-up, dessen Code zu 95 % von KI generiert wurde, geht erfolgreich an die Börse und hat nach ein oder zwei Jahren 100 Millionen Nutzer. Wird es zusammenbrechen? Die aktuellen Inferenzmodelle sind beim Debugging noch nicht stark genug. Daher müssen die Gründer das Produkt tief verstehen“, schlug er vor.
Der Boom des KI-Codings hat bei Risikokapitalgesellschaften und Entwicklern große Aufmerksamkeit erregt. In den letzten 12 Monaten haben Start-ups, die sich auf KI-Coding konzentrieren, wie Bolt.new, Codeium, Cursor, Lovable und Magic, insgesamt mehrere hundert Millionen Dollar an Finanzmitteln erhalten. Tan kommentierte dies mit: „Das ist kein kurzlebiger Trend, sondern die gängige Art zu programmieren. Wer nicht mitzieht, wird abgehängt.“
Mit der zunehmenden Anwendung von KI-Modellen im Bereich der Codierung verändert „Ambient Coding“ nicht nur die Arbeitsweise von Entwicklern, sondern eröffnet auch neue Möglichkeiten für Technologie-Start-ups. Die Suche nach der richtigen Balance zwischen Effizienz und Qualität bleibt jedoch eine Herausforderung, der sich Entwickler im Umgang mit KI stellen müssen.