Coden mit GenAI? Keine gute Idee!

Auch wenn die Versuchung groß ist: Entwickler sollten lieber die Finger davonlassen, Code mit generativer KI Code zu erzeugen. Das geht zwar superschnell, aber die Rechnung dafür ist gesalzen. [...]

Uwe Specht ist Senior Specialist Solutions Consultant bei Pegasystems. (c) Pegasystems

ChatGPT und Co. spucken auf Knopfdruck fertigen Programmcode aus. Prima, oder? Nicht wirklich. Wenn Generative KI eine Anwendung erzeugt, liefert sie zwar einen ganz ordentlichen ersten Entwurf. Rund 80 Prozent davon sind meist gut, die restlichen 20 lassen aber zu wünschen übrig. Wenn man versucht, sie durch entsprechendes Prompting zu verbessern, liefert GenAI erfahrungsgemäß immer mehr und mehr Code. 

Es entsteht Spaghetti-Code, der schwer zu lesen, zu verstehen und zu erweitern ist. Durch seine schlechte Strukturierung lassen sich seine Bestandteile nicht wiederverwenden. Außerdem hakt es oft an einer vernünftigen Dokumentation. Die Entwickler müssen zudem Zeile für Zeile prüfen, ob der Code die erforderliche Qualität und Sicherheit bietet oder andere Probleme birgt, etwa indem er eine Bibliothek verwendet, die gar nicht erwünscht ist. Kurz: GenAI produziert technische Schuld, die erhebliche Schwierigkeiten verursacht und mit viel Aufwand beglichen werden muss.

Die Versuchung ist natürlich groß. Man steht unter Zeitdruck und muss dem Chef so schnell wie möglich fertigen Code auf den Tisch legen. Mit ChatGPT und Konsorten geht das ruckzuck – aber der Preis dafür ist viel zu hoch. 

Auf die Unterstützung durch Generative KI müssen Entwickler trotzdem nicht verzichten. Sie braucht nur einen sicheren Rahmen. Modell-getriebene Entwicklungs-Plattformen mit integrierter GenAI bieten genau das. Sie nutzen Generative KI nicht für die Erzeugung des Codes, aber ziehen sie heran, um Modelle, Prozesse, Regeln und Workflows automatisch zu erstellen. Dabei können der generativen KI umfassende Vorgaben gemacht werden, um Sicherheitsanforderungen zu erfüllen und Wildwuchs zu verhindern. Dieser Ansatz mag im direkten Vergleich vielleicht ein bisschen Geschwindigkeit kosten, aber die Schlussrechnung fällt deutlich günstiger aus.

* Uwe Specht ist Senior Specialist Solutions Consultant bei Pegasystems.


Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*