Wer glaubt, generative KI könne Enterprise-Software bald im Alleingang entwickeln, verwechselt Autovervollständigung mit Architekturverantwortung.
KI verändert Softwareentwicklung – keine Frage. Aber die Vorstellung, man könne damit komplexe Unternehmenssysteme einfach „wegprompten“, greift viel zu kurz. Und es weckt Erwartungshaltungen, welche sehr risikobehaftet sind.
Und vieles dreht sich um Governance und Risikomanagement: Wer haftet für KI-generierten Code in kritischen Geschäftsprozessen? Wie dokumentiert man Entscheidungswege für Audits oder validiert komplexe Fachlogiken systematisch? Diese Verantwortungslücke übersehen viele – dabei bleiben Code-Reviews, Compliance-Checks und Architektur-Verantwortung zwingend menschliche Aufgaben. KI kann Code generieren, aber nicht dafür geradestehen.
Ein lesenswerter Artikel bei The New Stack bringt es auf den Punkt:
„Why Pure AI Coding Won’t Work for Enterprise Software“ (thenewstack.io/why-pure-ai-coding-wont-work-for-enterprise-software)
Was mir besonders auffällt:
- NOTHING IS GREENFIELD. Komplexe Enterprise-Systeme sind kein Greenfield – sie bestehen aus Legacy, Domänenlogik und oft Jahrzehnten gewachsener Architekturen.
- KI ist (noch) schlecht darin, kontextübergreifende Entscheidungen zu treffen, nachhaltige Modularität mit moderner IT-Architektur zu entwerfen oder Governance-Anforderungen zu berücksichtigen.
- Und: Auch die besten Modelle brauchen prompts mit Substanz – also Menschen, die wissen, was und warum etwas gebaut werden muss.
Mein Fazit:
KI ist ein Beschleuniger – aber kein Architekt.
Die Zukunft liegt in hybriden Teams: Fach- und Architekturkompetenz auf Augenhöhe mit KI-gestützter Effizienz.
Nicht prompt-basiertes Coding ersetzt strategische Softwareentwicklung, sondern strategische Köpfe nutzen KI gezielt – dort, wo es sinnvoll ist.




