Künstliche Intelligenz in der Softwareentwicklung: ’Die KI schwimmt in ihrer eigenen Suppe.’

Obwohl Künstliche Intelligenz einfache Aufgaben in der Softwareentwicklung lösen kann, brauchen wir gerade jetzt gut ausgebildete Junior-Entwickler:innen, argumentiert Martin Pinzger, Professor mit Schwerpunkt Software Engineering an der Universität Klagenfurt. Im Interview erklärt er, weshalb Large-Language-Modelle ohne neue Ideen von Menschen stagnieren und welchen Nutzen sie dennoch für die Softwareentwicklung bringen können.

Herr Pinzger, brauchen wir überhaupt noch Softwareentwickler:innen, wenn die Künstliche Intelligenz das doch auch kann?

Ich bin da eher skeptisch. Kürzlich erschienene wissenschaftliche Studien und auch meine persönlichen Erfahrungen mit der KI zeigen: Die einfachen, repetitiven Programmieraufgaben kann die KI sehr gut und schnell erledigen und hier kann man ihr fast vertrauen. Weil die KI ein riesiges Wahrscheinlichkeitsmodell ist, bleibt aber trotzdem eine Unsicherheit bzw. ein Restrisiko bestehen. Diese Unsicherheit, die zu Fehlern in Softwaresystemen führt, können wir uns besonders bei geschäftskritischen Systemen, die funktionieren müssen, nicht erlauben.

Wie ist es aber mit schwierigeren Aufgaben?

In den meisten Softwareprojekten stecken schwierige Herausforderungen, wie komplexe Algorithmen, Geschäftsmodelle mit vielen unterschiedlichen Anforderungen, und Abhängigkeiten zu anderen Systemen und Drittkomponenten, die es bei der Entwicklung eines Softwaresystems zu berücksichtigen gilt. Diese Herausforderungen kann die KI nicht vollständig oder nur unzureichend bewältigen. Deshalb brauchen wir in der Softwareentwicklung nach wie vor Personen, die das Ergebnis der KI überprüfen und entscheiden können, welche Teile der von der KI vorgeschlagenen Lösung wie übernommen werden können. Das kann nur jemand tun, der oder die ausreichend Erfahrung und das Wissen hat, wie komplexere Softwaresysteme entwickelt werden. Es bleibt also die Frage: Wie kommt jemand zu dieser Erfahrung? Wie wird jemand vom angeblich nicht mehr benötigten Juniorzum stark nachgefragten Senior-Softwareentwickler?

Sie sehen also nach wie vor Chancen für junge Softwareentwickler:innen am Arbeitsmarkt?

Ja, desto mehr die KI in der Softwareentwicklung eingesetzt wird, umso mehr brauchen wir gut ausgebildete Softwareentwickler:innen.

Wie ergeht es in diesem Spannungsfeld Ihren Studierenden?

Das Problem der notwendigen Entwicklung von der Juniorzur Senior-Softwareentwicklerin bildet sich auch im Studium ab. Auch wenn die KI wirklich nützlich sein kann, um die einfachen Aufgaben zu lösen, ist der Nutzen trügerisch. Wir brauchen dringend den Ébungseffekt im Studium, der sich aus der Beschäftigung mit den einfachen Problemstellungen ergibt, um dann auch komplexere Probleme lösen zu können. Der Mensch muss üben, denn die KI wird nicht so schnell zum Experten werden. Und für das Ében braucht man Sitzfleisch und Konzentrationsfähigkeit - zwei Kompetenzen, die heute, auch durch die Allgegenwärtigkeit der Social-Media-Ablenkungen bei jungen Menschen, leider immer mehr ins Hintertreffen geraten.

Die Künstliche Intelligenz kann nur auf Basis von bereits vorhandenem Wissen Ergebnisse erarbeiten. Kann die KI also jemals ganz neue Software - mitunter auch kreativ - entwickeln?

Die heutigen, großen Sprachmodelle der KI, mit der wir auch in der Softwareentwicklung arbeiten, sind nichts anderes als ein riesiges neuronales Netz mit Milliarden von Parametern. Wenn man sie mit einem Prompt, sprich dem Eingabetext füttert, dann berechnen sie, welches Wort bzw. Token mit hoher Wahrscheinlichkeit folgen wird. Deshalb bezeichnet man diese Art der KI auch als generative KI. Sie lebt von den vorhandenen Informationen, mit denen sie trainiert wurde. Bezüglich der Softwareentwicklung bezieht sie diese Informationen von zahlreichen Internetseiten und Foren von Softwareentwickler:innen. Wenn aber die Menschen dort kein neues Wissen hinzufügen, endet auch die Innovationskraft der KI. Und auch wenn die heutige KI zufällig Neues entwickeln kann, braucht es wiederum Menschen, die überprüfen, ob das so generierte Produkt dann tatsächlich etwas taugt und funktioniert. Sehr bedenklich wird es, wenn die nächsten Modelle mit ungeprüften, von der KI generierten Informationen trainiert werden. Dann schwimmt die KI in ihrer eigenen Suppe.

Brauchen wir überhaupt weiterhin neue Software?

Ja, zweifellos. Unsere Mitarbeiter:innen und Absolvent:innen bauen Software für reale Prozesse in der Welt. Und die Welt - und damit auch die Anforderungen an die Software - verändert sich ständig. Softwareentwickler:innen brauchen also analytische Fähigkeiten und Kreativität. Außerdem sitzt heute nicht mehr ein Entwickler mit fünf Litern Kaffee im Keller und baut alleine eine Software. Dieses Bild von Softwareentwickler:innen ist lange passé. Moderne Softwareentwickler:innen benötigen neben analytischen und technischen Kompetenzen sehr gute Teamund Kommunikationsfähigkeit, um komplexe Softwaresysteme im Team zu entwickeln. Ich bin überzeugt davon: Ob ein Softwareprojekt erfolgreich ist, hängt nicht von der Technologie ab, sondern immer vom Menschen.

Wie setzen Sie selbst Künstliche Intelligenz in Ihrer alltäglichen Forschungsarbeit ein?

Ich arbeite mit coding agents und nutze sie als sparring partner, als trainee oder als bessere Suchmaschine. Für lästige Arbeiten kann ich die KI gut brauchen. Ich behalte aber die Kontrolle: Ich bestimme, ob etwas stimmt oder nicht stimmt. Ich entscheide, in welche Richtung etwas entwickelt werden soll. Ich lenke die KI dorthin, bis die richtige Antwort vorliegt. Falls die KI die richtige Antwort nicht in brauchbarer Zeit oder mit brauchbarem Aufwand finden kann, dann kehre ich zurück zur herkömmlichen Lösungsmethode ohne KI. Ein Problem ist ja auch, dass die verwendeten Chatbots oder Agenten immer die gesamte Unterhaltung mitziehen und man immer wieder die ähnlichen fehlerhaften Antworten von der KI bekommt. Oft hilft es dann, eine neue Session zu starten, damit man zu dem Ergebnis gelangt, das man sucht.

Was können diese agents leisten?

Während die generativen Modelle, wie zum Beispiel jene hinter ChatGPT, meines Erachtens ihren Plafonds erreicht haben, sehe ich durch die agents noch ein gewisses Entwicklungspotenzial. Ein agent besitzt eine Zielfunktion und eine Beschreibung, wie er das Ziel erreichen kann. Zudem können dem agent Tools zur Verfügung gestellt werden, um bestimmte Aufgaben zu erledigen. Er fischt also nicht einzig im ganz großen Teich der wahrscheinlichen Lösungen, sondern kann bei Bedarf auf Tools zugreifen, um einen Teilschritt zur möglichen Lösung einer Aufgabe deterministisch auszuführen. Das klingt vielversprechend, jedoch wie ein Tool aufgerufen und wie das Resultat in die Lösung einfließt, hängt wieder von der KI ab. So kommt es bei etwas komplexeren Aufgabestellungen immer wieder vor, dass sich der agent im Kreis bewegt oder verirrt und man ihn unterbrechen muss, bevor er ziellos Ressourcen verschwendet.

Wann funktioniert die KI für Ihre Arbeit gut?

Die Antworten sind natürlich immer besser, je genauer ich die KI instruiere. Wenn die KI fast nur zum Ébersetzer zwischen meiner Sprache und der Programmiersprache wird, kann sie gute Leistungen erbringen. Das liegt daran, dass die Architektur hinter den generativen Modellen sogenannte Transformermodelle sind, die vor allem für die Ébersetzung von Texten entwickelt wurden. Dafür müssen sie kein Wissen hinzufügen, sondern nur die Wörter und Phrasen in die andere Sprache übertragen. In diesem Bereich wurde viel erreicht.

Medial wird immer wieder transportiert, dass die Künstliche Intelligenz immer intelligenter wird. Trifft das auf die LLM-Modelle nicht zu?

Im Gegenteil, die Gefahr besteht, dass die Modelle immer dümmer werden. Diese riesigen neuronalen Netze wählen meist den nächsten Token, der am wahrscheinlichsten ist und nur selten einen anderen. Wenn aber immer nur das Wahrscheinlichste generiert wird, werden die Lösungen immer einheitlicher und einfacher. Zum Beispiel kann man das sehr gut beim Einsatz der KI zum Generieren oder Verbessern von Texten sehen: Die KI schlägt meistens die gleichen Phrasen vor. Zukünftige Modelle lernen aber von diesen Ergebnissen und so steigert sich dieser Effekt; der zweitoder drittwahrscheinlichste Token gerät immer mehr aus dem Fokus. Am Schluss bleiben nur noch Einheitslösungen.

Was bleibt dann noch übrig?

(lacht) Vielleicht wird irgendwann die Antwort auf alle Fragen an ChatGPT -42- lauten.

Kann man das Nicht-Informatiker:innen erklären?

Sicher! In Douglas Adam’s Science-Fiction-Roman The Hitchhiker’s Guide to the Galaxy wird ein Supercomputer beauftragt, die Antwort auf die ultimative Frage nach dem Leben, dem Universum und allem zu berechnen. Der Supercomputer rechnet ewig lang, und kommt dann zum Ergebnis, dass die Antwort 42 antwortet. Die Antwort auf alle Fragen ist also -42-. Weil diese Information so oft in Texten im Internet vorkommt, ist es sogar sehr wahrscheinlich, dass die großen Sprachmodelle diese Antwort übernehmen. Bei der Entwicklung von Softwaresystemen wird uns diese Antwort aber nicht weiterhelfen.

Martin Pinzger ist seit 2013 Professor am Institut für Informatik-Systeme an der Universität Klagenfurt, das er aktuell als Institutsvorstand leitet. Er studierte Informatik an der Technischen Universität Wien, an der er 2005 das Doktorat abschloss. Anschließend arbeitete Martin Pinzger als wissenschaftlicher Mitarbeiter an der Universität Zürich und wechselte 2008 als Assistant Professor an die Technische Universität Delft in den Niederlanden. Seine Forschungsschwerpunkte sind KI für Software Engineering, Mining Software Repositories, Software Testing, Programmanalyse und Software-Visualisierung. Martin Pinzger leitet aktuell das vom FWF geförderte Projekt -SemImpact: Semantic Change Impact Analysis for Microservice-Based Systemssowie das von der FFG geförderte Projekt -Software Engineering Approaches for Evolving Systems-. 2025 wurde eine Arbeit zu ChangeDistiller als eine der einflussreichsten Arbeiten des vierten Jahrzehnts durch das Journal IEEE Transactions on Software Engineering ausgezeichnet.

Better life News Informatik-Systeme News Software Engineering News TeWi

https://www.aau.at/wp-c­ontent/upl­oads/2026/­03/AUSWAHL­_Pinzger-M­artin_2026­_Foto-Muel­ler-5.jpeg 4284 5712 Forschungskommunikation https://www.aau.at/wp-c­ontent/upl­oads/2015/­09/aau-log­o-300x110-­300x110wit­hout-backg­round3.png Forschungskommunikation 2026-03-02 09:50:51 2026-03-02 09:50:51