Tools wie Github Copilot und Facebook InCoder unterstützen beim Code schreiben und sorgen dafür, dass Entwickler glauben, ihr Code sei einwandfrei. Eine Studie hat jedoch etwas anderes herausgefunden. [...]
Informatiker der Stanford University haben herausgefunden, dass Programmierer, die die Hilfe von KI-Tools wie Github Copilot annehmen, weniger sicheren Code produzieren als diejenigen, die alleine arbeiten.
In einem Papier mit dem Titel „Do Users Write More Insecure Code with AI Assistants?“ beantworten die Stanford-Boffins Neil Perry, Megha Srivastava, Deepak Kumar und Dan Boneh diese Frage mit Ja.
Schlimmer noch, sie fanden heraus, dass die KI-Hilfe dazu neigt, die Entwickler über die Qualität ihrer Arbeit zu täuschen.
Die Studienautoren kommen zu dem Schluss, dass KI-Assistenten mit Vorsicht zu genießen sind, da sie unerfahrene Entwickler in die Irre führen und Sicherheitsschwachstellen schaffen können.
Gleichzeitig hoffen sie, dass ihre Erkenntnisse zu Verbesserungen bei der Entwicklung von KI-Assistenten führen werden, da diese das Potenzial haben, Programmierer produktiver zu machen und die Einstiegshürden zu senken.
Weitere Informationen dazu können Sie in diesem Artikel von Thomas Claburn nachlesen.
*Bernhard Lauer beschäftigt sich seit Jahrzehnten mit IT-Themen und bereitet diese als Autor und Redakteur auf – unter anderem für die dotnetpro. Programmieren gelernt hat er mit dem C64 und Basic. Er hat über die Anfänge von Java, JavaScript, HTML und .NET berichtet und sich zuletzt mit Python beschäftigt, nicht zuletzt deshalb, weil es ohne Semikolons auskommt ;-).
Be the first to comment