Quality Engineering in der KI-Ära

Im Quality Transformation Report 2025 warnt Tricentis vor den Risiken, wenn Tempo wichtiger wird als zuverlässige Software. Roman Zednik, Field CTO bei Tricentis, erklärt im Interview mit ITWelt.at, warum Qualitätssicherung früher ansetzen muss, welche Rolle das Model Context Protocol (MCP) dabei spielt und wie Agentic AI die Testlandschaften in Unternehmen verändert. [...]

Roman Zednik ist Field CTO bei Tricentis. (c) A.Sommerfeld
Roman Zednik ist Field CTO bei Tricentis. (c) A.Sommerfeld

Der jüngste „Quality Transformation Report 2025“ von Tricentis zeichnet ein kritisches Bild: Für 45 Prozent der Unternehmen ist Geschwindigkeit wichtiger als Qualität, und fast zwei Drittel veröffentlichen Code ohne vollständige Tests. Was sind aus Ihrer Sicht die wesentlichen Treiber hinter diesem riskanten Trend, und warum scheint sich dieses Problem gerade jetzt zuzuspitzen?

Unternehmen stehen heute unter starkem Innovations- und Wettbewerbsdruck. Neue Features müssen in immer kürzeren Zyklen live gehen, um Chancen zu nutzen. Gleichzeitig sind IT-Landschaften komplexer geworden – hybride Architekturen, Microservices, Cloud. Wenn hohe Komplexität auf enge Zeitpläne trifft, geraten Tests ins Hintertreffen. Häufig lautet die Devise: lieber ausliefern und später verbessern. Doch diese Kurzfristlogik führt langfristig zu steigenden Risiken und Kosten. Der Trend spitzt sich deshalb zu, weil Geschwindigkeit oft zum alleinigen Erfolgsmaß wird.

Als signifikante Hindernisse für eine höhere Softwarequalität werden im Report schlechte Kommunikation zwischen Softwareentwicklungs- und Qualitätssicherungsteams sowie eine fehlende Abstimmung zwischen Führung und Entwicklungsteams genannt. Welche praktischen Schritte können Organisationen unternehmen, um diese Kommunikations- und Abstimmungslücken effektiv zu schließen und eine kohärente, unternehmensweite Qualitätsstrategie zu etablieren?

Qualität darf nicht als letzte Hürde vor dem Go-Live verstanden werden, sondern muss von Anfang an ein fester Bestandteil des Entwicklungsprozesses sein. Das beginnt damit, Tests bereits in frühen Phasen der Entwicklung zu integrieren und einheitliche, unternehmensweit gültige Qualitätsmetriken zu definieren. Diese Kennzahlen müssen für alle Teams transparent und jederzeit abrufbar sein, sodass alle den gleichen Qualitätsmaßstab anlegen. Cross-funktionale Teams, in denen Entwicklung, Qualitätssicherung und Betrieb eng zusammenarbeiten, helfen, Silos aufzulösen und gegenseitiges Verständnis zu fördern. Ergänzend braucht es regelmäßige, klar strukturierte Feedback-Loops, damit Probleme nicht erst am Ende auffallen, sondern kontinuierlich adressiert werden können. Und ganz wesentlich: Führungskräfte müssen Qualität spürbar priorisieren – indem sie sie als Erfolgskriterium ebenso hoch bewerten wie die Einhaltung von Zeitplänen und dafür auch Ressourcen, Zeit und Anerkennung bereitstellen. Nur so entsteht eine kohärente, unternehmensweite Qualitätsstrategie, die nicht bei der Technik aufhört, sondern in der Kultur verankert ist.

Der Report beziffert die Kosten schlechter Softwarequalität für fast die Hälfte der Unternehmen auf über eine Million US-Dollar jährlich. Können Sie näher erläutern, wie sich diese Kosten über reine Fehlerbehebung hinaus manifestieren?

Fehlerbehebung ist nur die sichtbarste Spitze des Eisbergs. Ein wesentlicher Kostentreiber sind technische Schulden: Wenn fehlerhafter oder provisorisch implementierter Code in der Produktivumgebung bleibt, steigen Wartungsaufwand und Entwicklungszeit bei späteren Releases massiv an. Hinzu kommen gravierende Produktivitätsverluste durch Systemausfälle oder Performanceprobleme, die ganze Teams blockieren können. Auch der Aufwand im Support wächst, wenn vermehrt Fehler gemeldet oder Workarounds bereitgestellt werden müssen. Auf Kundenseite führen diese Schwächen schnell zu Vertrauensverlust, geringerer Zufriedenheit und letztlich zu Abwanderung – was gerade in wettbewerbsintensiven Märkten schwer wiegt. In regulierten Branchen kommen noch Compliance-Risiken hinzu: Ein fehlerhaftes Release kann Verstöße gegen Sicherheits- oder Datenschutzanforderungen nach sich ziehen und hohe Strafzahlungen auslösen. All das bindet Budgets und Ressourcen, die eigentlich in Innovation und Wachstum fließen sollten, und schwächt so auf Dauer die Wettbewerbsfähigkeit des Unternehmens erheblich.

Die Studie zeigt eine enorme Zuversicht in KI: 84 Prozent glauben, dass KI hilft, Software auch unter engen Zeitvorgaben bereitzustellen. Wo sehen Sie die Hebelwirkung von KI heute – jenseits der allgemeinen Produktivitätsversprechen – um dieses Dilemma zu lösen?

KI kann heute nicht nur Geschwindigkeit bringen, sondern gleichzeitig die Qualität absichern. Sie unterstützt bei der Erstellung von automatisieren Testfällen auf Basis von Anforderungen oder Spezifikationen, erkennt Anomalien oder unnötige Codebestandteile – gerade in KI-generiertem Code – und hilft Tests nach Risiko zu priorisieren, statt pauschal ganze Testreihen zu kürzen. Zudem kann sie repetitive Qualitätssicherungsaufgaben zuverlässig übernehmen und so wertvolle Kapazitäten im Team freisetzen. Diese gewonnene Zeit lässt sich in exploratives Testen investieren, um ungewöhnliche oder komplexe Fehler zu finden, die automatisierte Standardtests oft übersehen. KI darf daher nicht nur reiner Beschleuniger sein, sondern sollte als Qualitätsintelligenz verstanden werden, die aktiv Risiken reduziert und die Verlässlichkeit der Auslieferung erhöht.

Neun von zehn CIOs und CTOs vertrauen laut Studie KI-Agenten sogar mit Release-Entscheidungen. Überschätzen die Entscheider hier das technologische Niveau der KI? Welche Guardrails und Governance-Modelle sind absolut essenziell, um dieses Vertrauen nicht zu missbrauchen?

Autonomie ohne klare Regeln ist riskant. Deshalb braucht es technische und organisatorische Sicherheitsschienen. Jede Entscheidung eines Agenten muss nachvollziehbar und auditierbar sein, mit definierten Risikoschwellen, bei deren Überschreiten ein Mensch eingreifen muss. Gleichzeitig muss der Kontext, auf dem eine Entscheidung basiert, vollständig und korrekt sein. Genau hier setzt das Model Context Protocol an, das wir bei Tricentis bereits im Einsatz haben: MCP ist ein offener Standard, der dafür sorgt, dass Agenten verlässlich mit den richtigen Daten und Tools miteinander kommunizieren können – sicher, kontextsensitiv und standardisiert. Das reduziert Interpretationsfehler, schafft Transparenz und stellt sicher, dass das Vertrauen in Agenten auf einer überprüfbaren Basis steht.

Tricentis spricht nicht mehr nur von KI-gestützter, sondern von „Agentic AI“. Was ist der entscheidende qualitative Unterschied zwischen einem KI-Copiloten, der assistiert, und einem KI-Agenten, der autonom handelt, und warum ist dieser Schritt jetzt notwendig? Und welche Auswirkungen kann das auf die Qualitätssicherung haben?

Ein Copilot unterstützt den Menschen mit Vorschlägen oder Analysen, ein Agent handelt selbstständig – innerhalb definierter Grenzen. In der Praxis heißt das: Ein Agentic-AI-System kann eine in natürlicher Sprache formulierte Anforderung analysieren, daraus Testfälle erstellen, Testdaten generieren, diese in einer Testumgebung ausführen und die Ergebnisse samt Risikoeinschätzung aufbereiten – ohne zwingendes manuelles Eingreifen zwischen den Schritten. Möglich wird das Zusammenspiel mehrerer spezialisierter Agenten durch – wie gerade bereits angesprochen – MCP, das wie ein universeller Stecker funktioniert: Es stellt sicher, dass alle Agenten dieselbe „Sprache“ sprechen und Informationen im passenden Kontext austauschen. Für die Qualitätssicherung bedeutet das kürzere Zyklen, weniger Übergabeverluste und eine konsistent hohe Prüfqualität – selbst in komplexesten Enterprise-Umgebungen.

Sie haben eine Roadmap für die Integration von Agentic AI in den gesamten Qualitätssicherungszyklus angekündigt. Was ist der nächste große Meilenstein? Und wohin geht die Reise in den nächsten zwei Jahren?

Mit der allgemeinen Verfügbarkeit von Tricentis Agentic Test Automation im Juli 2025 haben wir einen wichtigen Meilenstein erreicht. Der nächste große Schritt ist jetzt die flächendeckende Integration unserer Remote-MCP-Server in Enterprise-Umgebungen, auch in Kombination mit Agenten von Drittanbietern. Dadurch können Unternehmen agentenbasierte Workflows noch einfacher mit bestehenden Testlandschaften wie Tosca, NeoLoad oder qTest verknüpfen. Parallel arbeiten wir daran, Agentic AI in weitere Phasen des Qualitätssicherungsprozesses einzubetten – etwa in die automatisierte Risikoanalyse, die intelligente Auswahl relevanter Testsets und perspektivisch auch ins autonome Release-Management. Ziel für die kommenden zwei Jahre ist eine vollständig integrierte, hybride Testarchitektur, in der spezialisierte Agenten als verlässliche Partner in allen Schritten des QS-Zyklus agieren – vom ersten Anforderungstext bis zur finalen Freigabeentscheidung.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*