Im Quality Transformation Report 2025 warnt Tricentis vor den Risiken, wenn Tempo wichtiger wird als zuverlässige Software. Roman Zednik, Field CTO bei Tricentis, erklärt im Interview mit ITWelt.at, warum Qualitätssicherung früher ansetzen muss, welche Rolle das Model Context Protocol (MCP) dabei spielt und wie Agentic AI die Testlandschaften in Unternehmen verändert. [...]
Der jüngste „Quality Transformation Report 2025“ von Tricentis zeichnet ein kritisches Bild: Für 45 Prozent der Unternehmen ist Geschwindigkeit wichtiger als Qualität, und fast zwei Drittel veröffentlichen Code ohne vollständige Tests. Was sind aus Ihrer Sicht die wesentlichen Treiber hinter diesem riskanten Trend, und warum scheint sich dieses Problem gerade jetzt zuzuspitzen?
Unternehmen stehen heute unter starkem Innovations- und Wettbewerbsdruck. Neue Features müssen in immer kürzeren Zyklen live gehen, um Chancen zu nutzen. Gleichzeitig sind IT-Landschaften komplexer geworden – hybride Architekturen, Microservices, Cloud. Wenn hohe Komplexität auf enge Zeitpläne trifft, geraten Tests ins Hintertreffen. Häufig lautet die Devise: lieber ausliefern und später verbessern. Doch diese Kurzfristlogik führt langfristig zu steigenden Risiken und Kosten. Der Trend spitzt sich deshalb zu, weil Geschwindigkeit oft zum alleinigen Erfolgsmaß wird.
Als signifikante Hindernisse für eine höhere Softwarequalität werden im Report schlechte Kommunikation zwischen Softwareentwicklungs- und Qualitätssicherungsteams sowie eine fehlende Abstimmung zwischen Führung und Entwicklungsteams genannt. Welche praktischen Schritte können Organisationen unternehmen, um diese Kommunikations- und Abstimmungslücken effektiv zu schließen und eine kohärente, unternehmensweite Qualitätsstrategie zu etablieren?
Qualität darf nicht als letzte Hürde vor dem Go-Live verstanden werden, sondern muss von Anfang an ein fester Bestandteil des Entwicklungsprozesses sein. Das beginnt damit, Tests bereits in frühen Phasen der Entwicklung zu integrieren und einheitliche, unternehmensweit gültige Qualitätsmetriken zu definieren. Diese Kennzahlen müssen für alle Teams transparent und jederzeit abrufbar sein, sodass alle den gleichen Qualitätsmaßstab anlegen. Cross-funktionale Teams, in denen Entwicklung, Qualitätssicherung und Betrieb eng zusammenarbeiten, helfen, Silos aufzulösen und gegenseitiges Verständnis zu fördern. Ergänzend braucht es regelmäßige, klar strukturierte Feedback-Loops, damit Probleme nicht erst am Ende auffallen, sondern kontinuierlich adressiert werden können. Und ganz wesentlich: Führungskräfte müssen Qualität spürbar priorisieren – indem sie sie als Erfolgskriterium ebenso hoch bewerten wie die Einhaltung von Zeitplänen und dafür auch Ressourcen, Zeit und Anerkennung bereitstellen. Nur so entsteht eine kohärente, unternehmensweite Qualitätsstrategie, die nicht bei der Technik aufhört, sondern in der Kultur verankert ist.
Der Report beziffert die Kosten schlechter Softwarequalität für fast die Hälfte der Unternehmen auf über eine Million US-Dollar jährlich. Können Sie näher erläutern, wie sich diese Kosten über reine Fehlerbehebung hinaus manifestieren?
Fehlerbehebung ist nur die sichtbarste Spitze des Eisbergs. Ein wesentlicher Kostentreiber sind technische Schulden: Wenn fehlerhafter oder provisorisch implementierter Code in der Produktivumgebung bleibt, steigen Wartungsaufwand und Entwicklungszeit bei späteren Releases massiv an. Hinzu kommen gravierende Produktivitätsverluste durch Systemausfälle oder Performanceprobleme, die ganze Teams blockieren können. Auch der Aufwand im Support wächst, wenn vermehrt Fehler gemeldet oder Workarounds bereitgestellt werden müssen. Auf Kundenseite führen diese Schwächen schnell zu Vertrauensverlust, geringerer Zufriedenheit und letztlich zu Abwanderung – was gerade in wettbewerbsintensiven Märkten schwer wiegt. In regulierten Branchen kommen noch Compliance-Risiken hinzu: Ein fehlerhaftes Release kann Verstöße gegen Sicherheits- oder Datenschutzanforderungen nach sich ziehen und hohe Strafzahlungen auslösen. All das bindet Budgets und Ressourcen, die eigentlich in Innovation und Wachstum fließen sollten, und schwächt so auf Dauer die Wettbewerbsfähigkeit des Unternehmens erheblich.
Die Studie zeigt eine enorme Zuversicht in KI: 84 Prozent glauben, dass KI hilft, Software auch unter engen Zeitvorgaben bereitzustellen. Wo sehen Sie die Hebelwirkung von KI heute – jenseits der allgemeinen Produktivitätsversprechen – um dieses Dilemma zu lösen?
KI kann heute nicht nur Geschwindigkeit bringen, sondern gleichzeitig die Qualität absichern. Sie unterstützt bei der Erstellung von automatisieren Testfällen auf Basis von Anforderungen oder Spezifikationen, erkennt Anomalien oder unnötige Codebestandteile – gerade in KI-generiertem Code – und hilft Tests nach Risiko zu priorisieren, statt pauschal ganze Testreihen zu kürzen. Zudem kann sie repetitive Qualitätssicherungsaufgaben zuverlässig übernehmen und so wertvolle Kapazitäten im Team freisetzen. Diese gewonnene Zeit lässt sich in exploratives Testen investieren, um ungewöhnliche oder komplexe Fehler zu finden, die automatisierte Standardtests oft übersehen. KI darf daher nicht nur reiner Beschleuniger sein, sondern sollte als Qualitätsintelligenz verstanden werden, die aktiv Risiken reduziert und die Verlässlichkeit der Auslieferung erhöht.
Neun von zehn CIOs und CTOs vertrauen laut Studie KI-Agenten sogar mit Release-Entscheidungen. Überschätzen die Entscheider hier das technologische Niveau der KI? Welche Guardrails und Governance-Modelle sind absolut essenziell, um dieses Vertrauen nicht zu missbrauchen?
Autonomie ohne klare Regeln ist riskant. Deshalb braucht es technische und organisatorische Sicherheitsschienen. Jede Entscheidung eines Agenten muss nachvollziehbar und auditierbar sein, mit definierten Risikoschwellen, bei deren Überschreiten ein Mensch eingreifen muss. Gleichzeitig muss der Kontext, auf dem eine Entscheidung basiert, vollständig und korrekt sein. Genau hier setzt das Model Context Protocol an, das wir bei Tricentis bereits im Einsatz haben: MCP ist ein offener Standard, der dafür sorgt, dass Agenten verlässlich mit den richtigen Daten und Tools miteinander kommunizieren können – sicher, kontextsensitiv und standardisiert. Das reduziert Interpretationsfehler, schafft Transparenz und stellt sicher, dass das Vertrauen in Agenten auf einer überprüfbaren Basis steht.
Tricentis spricht nicht mehr nur von KI-gestützter, sondern von „Agentic AI“. Was ist der entscheidende qualitative Unterschied zwischen einem KI-Copiloten, der assistiert, und einem KI-Agenten, der autonom handelt, und warum ist dieser Schritt jetzt notwendig? Und welche Auswirkungen kann das auf die Qualitätssicherung haben?
Ein Copilot unterstützt den Menschen mit Vorschlägen oder Analysen, ein Agent handelt selbstständig – innerhalb definierter Grenzen. In der Praxis heißt das: Ein Agentic-AI-System kann eine in natürlicher Sprache formulierte Anforderung analysieren, daraus Testfälle erstellen, Testdaten generieren, diese in einer Testumgebung ausführen und die Ergebnisse samt Risikoeinschätzung aufbereiten – ohne zwingendes manuelles Eingreifen zwischen den Schritten. Möglich wird das Zusammenspiel mehrerer spezialisierter Agenten durch – wie gerade bereits angesprochen – MCP, das wie ein universeller Stecker funktioniert: Es stellt sicher, dass alle Agenten dieselbe „Sprache“ sprechen und Informationen im passenden Kontext austauschen. Für die Qualitätssicherung bedeutet das kürzere Zyklen, weniger Übergabeverluste und eine konsistent hohe Prüfqualität – selbst in komplexesten Enterprise-Umgebungen.
Sie haben eine Roadmap für die Integration von Agentic AI in den gesamten Qualitätssicherungszyklus angekündigt. Was ist der nächste große Meilenstein? Und wohin geht die Reise in den nächsten zwei Jahren?
Mit der allgemeinen Verfügbarkeit von Tricentis Agentic Test Automation im Juli 2025 haben wir einen wichtigen Meilenstein erreicht. Der nächste große Schritt ist jetzt die flächendeckende Integration unserer Remote-MCP-Server in Enterprise-Umgebungen, auch in Kombination mit Agenten von Drittanbietern. Dadurch können Unternehmen agentenbasierte Workflows noch einfacher mit bestehenden Testlandschaften wie Tosca, NeoLoad oder qTest verknüpfen. Parallel arbeiten wir daran, Agentic AI in weitere Phasen des Qualitätssicherungsprozesses einzubetten – etwa in die automatisierte Risikoanalyse, die intelligente Auswahl relevanter Testsets und perspektivisch auch ins autonome Release-Management. Ziel für die kommenden zwei Jahre ist eine vollständig integrierte, hybride Testarchitektur, in der spezialisierte Agenten als verlässliche Partner in allen Schritten des QS-Zyklus agieren – vom ersten Anforderungstext bis zur finalen Freigabeentscheidung.

Be the first to comment