„Müssen wieder Kontrolle darüber gewinnen, was in unseren IT-Umgebungen tatsächlich geschieht“ 

KI nimmt in der IT-Sicherheit eine ambivalente Rolle ein: Sie treibt Innovationen voran und unterstützt die Abwehr, wirkt zugleich jedoch als Katalysator für neue Bedrohungen und wirft ethische Fragen auf. Entsprechend vielschichtig gestaltete sich der ITWelt.at Roundtable zu Security und künstlicher Intelligenz. Die Redaktion sprach im Rahmen der Diskussion mit Richard Werner, Cybersecurity Platform Lead, Europe bei Trend Micro. [...]

Richard Werner, Cybersecurity Platform Lead, Europe bei Trend Micro. (c) timeline/Rudy Handl
Richard Werner, Cybersecurity Platform Lead, Europe bei Trend Micro. (c) timeline/Rudy Handl

Bitte skizzieren Sie Ihren Aufgabenbereich. Warum führt an künstlicher Intelligenz in der Cybersicherheit kein Weg mehr vorbei?

Ich bin seit 25 Jahren im Unternehmen tätig und verantworte heute den Bereich als Cyber Security Platform Lead mit einem klar strategischen Fokus, insbesondere im Kontext von Cyberkriminalität.

Wir sind ein Plattformanbieter mit japanischen Wurzeln und decken mit unseren Lösungen die gesamte Sicherheitskette ab – vom Endpoint über Gateways bis hin zu XDR, also Extended Detection and Response, sowie dem umfassenden Cyber-Risikomanagement.

Wir betrachten KI als disruptive Technologie. Wir kommen nicht mehr daran vorbei. Es stellt sich längst nicht mehr die Frage, ob wir sie einsetzen, sondern nur noch, wie wir sie möglichst sinnvoll und verantwortungsvoll integrieren. In vielen Bereichen war der Einsatz von KI eine Notwendigkeit, und das bereits seit über 20 Jahren.

Heute liegt unser Fokus darauf, den Einsatz weiterzuentwickeln: Wie können wir künstliche Intelligenz noch besser für unsere Plattform nutzen? Wie lässt sich ihre Wirkung gezielt verstärken? Gleichzeitig beschäftigt uns die Gegenseite genauso stark: gezielte Angreifer, kriminelle Strukturen und auch Gruppen, die außerhalb klassischer Kriminalitätsmuster agieren. Auch sie setzen KI zunehmend ein, teils hochentwickelt, teils experimentell.

Unsere Herausforderung liegt also darin, nicht nur die Technologie weiterzuentwickeln, sondern sie auch so einzusetzen, dass wir KI-gestützte Angriffe frühzeitig erkennen, richtig einordnen und mit geeigneten Mitteln abwehren können.

Welche neuen Bedrohungen zeichnen sich am Horizont ab, wenn kriminelle Akteure beginnen, nicht nur bestehende Angriffsmodelle mit KI zu optimieren, sondern tatsächlich eigenständige KI-basierte Taktiken zu entwickeln?

Was wir derzeit beobachten, ist, dass künstliche Intelligenz im Bereich der Kriminalität zwar bereits genutzt wird, allerdings noch hauptsächlich zur Optimierung bekannter Angriffsmethoden. Was wir bislang aber noch nicht gesehen haben, sind völlig neue Angriffsmodelle, die ausschließlich durch KI überhaupt erst möglich werden.

Nehmen wir als Beispiel Scams oder Fälschungen im Rahmen von Business E-Mail Compromise. Solche Täuschungsszenarien existieren seit Jahren, eigentlich sogar seit Jahrhunderten, wenn man die IT-Welt einmal außen vor lässt. KI verbessert hier die Qualität und Wirksamkeit, doch die Grundform des Verbrechens bleibt dieselbe.

Der wirklich kritische Punkt wird erreicht, wenn Kriminelle beginnen, die neuen technologischen Potenziale voll auszuschöpfen, etwa durch den Einsatz sogenannter Agentic AI. Solche autonomen KI-Systeme können mit einer bestimmten Zielvorgabe programmiert werden, um dann auf einem kompromittierten System selbstständig Entscheidungen zu treffen und Aktionen auszuführen. Im Gegensatz zu herkömmlichen Angriffen, bei denen etwa alle verfügbaren Daten kopiert werden, würde ein KI-gesteuertes System gezielt nur die relevanten, verwertbaren Informationen identifizieren und extrahieren. Die Qualität des Angriffs steigt dadurch massiv.

Im Moment sehen wir solche Ansätze überwiegend als Proof-of-Concept vorwiegend im Bereich politischer Angriffe. Flächendeckend sind sie im Bereich der organisierten Cyberkriminalität noch nicht angekommen. Genau das ist der Zeitvorsprung, den wir aktuell noch haben. Der Punkt ist: Wenn diese Technologien einmal breit eingesetzt werden, wird unsere heutige Abwehrstrategie in vielen Fällen nicht mehr ausreichen.

Deshalb ist der Einsatz künstlicher Intelligenz auch auf der Verteidigungsseite keine Option mehr. Er ist eine Notwendigkeit. Und hier beginnt die Diskussion: Welche KI-Modelle, welche Ansätze sind für den Schutz geeignet? Bei den Angreifern mag Agentic AI noch Zukunftsmusik sein, doch wir wissen aus der Vergangenheit, dass sich militärisch entwickelte Technologien früher oder später auch im Cyber-Underground durchsetzen. Dieser Transfer hat nichts mit künstlicher Intelligenz im Speziellen zu tun, er ist ein bekanntes Muster. Und genau deshalb müssen wir vorbereitet sein.

Warum wird es für Unternehmen zunehmend entscheidend, die Kontrolle über ihre digitalen Umgebungen zurückzugewinnen – insbesondere mit Blick auf autonome KI-Systeme?

Am Ende des Tages liegt genau hier eines der zentralen Probleme: Wir müssen wieder die Kontrolle darüber gewinnen, was in unseren IT-Umgebungen tatsächlich geschieht.

Gerade bei autonomen oder halbautonomen Systemen, also digitalen Agenten, die selbstständig agieren, wird das zunehmend schwierig. Diese Systeme führen Aufgaben aus, ohne dass wir als Menschen immer im Detail nachvollziehen oder beeinflussen können, was genau geschieht. Das schafft eine neue Ebene der Intransparenz und damit eine potenzielle Sicherheitslücke.

Das Microsoft Copilot-Szenario ist ein gutes Beispiel. In diesem Fall wurde die potenzielle Schwachstelle rechtzeitig erkannt und behoben, bevor ein Schaden entstehen konnte. Aber die entscheidende Erkenntnis ist: Es war ein Glücksfall. Es ist letztlich nur eine Frage der Zeit, bis ein ähnlicher Angriff nicht rechtzeitig entdeckt wird oder gravierende Folgen hat.

Solche Fälle zeigen deutlich, dass wir es künftig nicht nur mit Angriffen auf den Menschen oder dessen Gerät zu tun haben, sondern mit Angriffen auf Systeme, die weitgehend eigenständig agieren, und das oft im Hintergrund und mit Zugriff auf sensible Daten und Funktionen.

Wenn wir nicht frühzeitig gegensteuern, verlieren wir die Übersicht und letztlich auch die Fähigkeit, angemessen zu reagieren. Die Herausforderung liegt also nicht nur in der technologischen Absicherung, sondern auch darin, die Sichtbarkeit und Steuerbarkeit in zunehmend KI-gestützten Umgebungen zu bewahren.

Wo sind aus Ihrer Sicht die größten Gefahren?

Eine große Gefahr liegt meiner Ansicht nach in den wenigen Personen, die die KI-Tools wirklich im Detail verstehen und dieses Wissen gezielt einsetzen, um Schaden zu verursachen. Denn sobald solche Expertise auf die falsche Seite wechselt, entsteht ein Bedrohungspotenzial, das weit über klassische Cyberkriminalität hinausgeht.

Ein konkretes Beispiel dafür sind sogenannte Poisoning-Angriffe. Hierbei wird gezielt manipuliertes Material im Internet platziert, mit dem Ziel, dass große Sprachmodelle diese Inhalte im Trainingsprozess aufnehmen. Die Modelle lernen dadurch fehlerhafte oder bewusst verzerrte Informationen, was zu langfristigen Manipulationseffekten führen kann.

Das geht mittlerweile weit über technische Spielerei hinaus. Inzwischen ist es möglich, KI-Befehle in E-Mail-Anhängen oder sogar unsichtbar im Text selbst zu verstecken. Der Mensch erkennt sie nicht, aber das KI-System verarbeitet sie und reagiert darauf. Es handelt sich hier nicht um Angriffe aus dem Bereich der organisierten Cyberkriminalität, sondern um klar staatlich gesteuerte Operationen.

Diese Aktivitäten lassen sich teilweise auch dem Feld der Wirtschaftsspionage zuordnen, wobei auch hier meist keine direkten Auseinandersetzungen zwischen Unternehmen stattfinden, sondern staatlich unterstützte Akteure im Hintergrund agieren.

Das zeigt: Die nächste Stufe der Bedrohung ist längst in Vorbereitung durch Akteure, die nicht nur über Zugang zu modernen Technologien verfügen, sondern auch über das nötige Fachwissen, sie gezielt zu manipulieren. 

Warum ist es gefährlich, künstliche Intelligenz auf die populäre Vorstellung von Sprachmodellen zu reduzieren?

Wir müssen sehr klar unterscheiden zwischen einer rein technischen Perspektive und der öffentlichen Wahrnehmung von künstlicher Intelligenz. Wenn heute über KI gesprochen wird, meinen die meisten in erster Linie die großen Sprachmodelle – also LLMs. Das ist der Bereich, der medial präsent ist, der als „neue KI“ wahrgenommen wird und der momentan die öffentliche Debatte dominiert.

Technisch betrachtet ist das Bild jedoch deutlich komplexer. LLMs bestehen nicht isoliert, sondern setzen sich aus verschiedenen KI-Bausteinen zusammen, darunter ganz klassisch auch Mustererkennung und maschinelles Lernen. Diese Verfahren sind nicht neu, sie sind integraler Bestandteil der Modelle und überhaupt Voraussetzung dafür, dass Sprachmodelle in dieser Form funktionieren können.

Künstliche Intelligenz ist ein weites Feld, das viele unterschiedliche Technologien, Methoden und Architekturen umfasst mit jeweils spezifischen Anwendungsbereichen. Wenn wir die Debatte zu stark auf die Sprachausgabe oder Chat-Funktionalitäten verengen, laufen wir Gefahr, andere kritische Aspekte der Technologie auszublenden.

Gerade in der sicherheitskritischen Diskussion ist das problematisch. Denn die Herausforderungen liegen nicht allein in der Interaktion über Sprache, sondern häufig in den tieferliegenden Strukturen, etwa in den Trainingsdaten, in der Modellarchitektur oder in der Art, wie Entscheidungen aus Wahrscheinlichkeiten abgeleitet werden.

Deshalb sollten wir vorsichtig sein, KI auf das zu reduzieren, was gerade populär ist. Eine fundierte Auseinandersetzung erfordert ein Verständnis dafür, dass hinter jedem LLM ein komplexes Geflecht klassischer KI-Methoden steckt – mit all den Risiken und Potenzialen, die wir aus früheren Generationen kennen, nur jetzt in deutlich größerem Maßstab.

Wer trägt künftig die Verantwortung beim Einsatz von KI-Systemen – und welche Rolle spielt der EU AI Act bei der Klärung von Haftungsfragen und der Transparenzpflicht der Hersteller?

Einer der entscheidenden Punkte im EU AI Act, der im vergangenen Jahr verabschiedet wurde, ist genau diese Zuweisung der Verantwortung: Wer KI einsetzt, trägt auch die rechtliche Verantwortung für ihre Auswirkungen.

Das gilt unabhängig davon, ob die Technologie selbst entwickelt wurde oder ob es sich um ein zugekauftes System handelt. Der Anwender oder die Anwenderin, also das Unternehmen oder die Organisation, die KI produktiv einsetzt, haftet für das, was daraus entsteht. Auch wenn der AI Act erst 2026 vollumfänglich in Kraft tritt, ist die Richtung jetzt schon klar definiert.

Das heißt aber nicht, dass sich Hersteller aus der Verantwortung stehlen können. Im Gegenteil: Unsere Aufgabe als Anbieter ist es, Transparenz zu schaffen. Wir müssen nachvollziehbar machen, wie unsere Modelle zu Entscheidungen kommen, welche Daten sie dabei berücksichtigen und wo mögliche Schwächen liegen. Nur so können Anwender überhaupt in die Lage versetzt werden, die Verantwortung, die ihnen gesetzlich auferlegt wird, auch tatsächlich zu tragen.

Ein gutes Beispiel ist die Spam-Erkennung. Natürlich versuchen wir, False Positives zu minimieren, aber sie lassen sich nicht komplett ausschließen. Umso wichtiger ist es, dass wir dem Kunden im Fehlerfall erklären können, warum eine bestimmte E-Mail blockiert wurde, auf welcher Grundlage das Modell entschieden hat und wie man künftig verhindern kann, dass ein ähnlicher Fehler erneut auftritt.

Blackbox-Systeme, die auf Nachfrage nichts preisgeben, sind in sicherheitskritischen Bereichen aus unserer Sicht problematisch. In allen Anwendungsfeldern, in denen KI Entscheidungen vorbereitet oder automatisiert trifft, gilt künftig: Der Mensch bleibt verantwortlich, und der Hersteller muss dafür sorgen, dass diese Verantwortung auch bewusst und fundiert wahrgenommen werden kann.

Das ist nicht nur rechtlich notwendig, sondern auch essenziell für das Vertrauen in die Technologie.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Wie kann künstliche Intelligenz helfen, eine proaktive Risikosteuerung auf Basis realer Schwachstellen zu ermöglichen?

Wir sehen den größten Mehrwert von KI dort, wo sie große Datenmengen schnell und effizient analysieren kann, um daraus konkrete, verwertbare Ergebnisse abzuleiten. In der Cybersecurity sind wir traditionell sehr reaktiv unterwegs. Meist greifen wir erst dann ein, wenn ein Angriff bereits stattgefunden hat.

Mit Hilfe künstlicher Intelligenz können wir diesen Ansatz deutlich proaktiver gestalten. Die Grundlage dafür sind zwei große Datenpools, die wir zusammenführen: Einerseits verfügen wir über umfassende Informationen aus der Threat Intelligence – also darüber, wie Angreifer typischerweise vorgehen. Diese Informationen stehen uns sowohl aus eigenen Quellen als auch aus öffentlich zugänglichen Daten zur Verfügung.

Andererseits wissen wir sehr genau, wie ein Unternehmen intern aufgebaut ist. Über Sensorik auf Endpoints, Netzwerkgeräten oder in der Cloud sammeln wir fortlaufend Informationen aus der realen Systemlandschaft. Diese beiden Datenquellen – Bedrohungslage und Ist-Zustand – werden zusammengeführt und bilden die Grundlage für eine dynamische Risikobewertung.

Dabei geht es nicht nur um technische Schwachstellen wie fehlende Patches oder veraltete Konfigurationen, sondern auch um logische Lücken, etwa schwache Passwörter, ungewöhnliche Anmeldeverhalten wie Impossible Travel oder falsch gesetzte Berechtigungen.

Auf dieser Basis erstellen wir eine Risikokarte, die aufzeigt, wo im Unternehmen aktuell die größten Angriffsflächen bestehen. Und hier kommt die KI – konkret auch LLMs – ins Spiel: Sie helfen dabei, nicht nur zu erkennen was das Risiko ist, sondern auch zu erklären, warum es besteht und wie es sich beheben lässt.

Diese Arbeit findet nicht im Ausnahmefall eines Angriffs statt, sondern ist tägliche Praxis. Es geht darum, Security-Tools richtig zu konfigurieren, Abläufe zu optimieren und systematisch Schwächen zu beseitigen. Denn wenn ein Cyberangriff heute erfolgreich ist, liegt es meist nicht an fehlender Technologie, sondern daran, dass vorhandene Schutzmechanismen nicht richtig eingesetzt oder schlecht angepasst wurden.

Künstliche Intelligenz hilft uns dabei, genau diese Lücken frühzeitig sichtbar zu machen und gezielt zu schließen, bevor sie ausgenutzt werden können. Das ist für uns der wichtigste Beitrag, den KI heute leisten kann.

Warum wird Security nie vollständig automatisiert sein?

Ich finde, das Beispiel der Robotik macht das sehr anschaulich: Selbst mit über 50 Jahren Erfahrung in einem hochspezialisierten technischen Bereich ist es bis heute nicht so, dass man solche Systeme völlig autonom laufen lässt. Sie werden nach wie vor von Menschen überwacht – ganz einfach, weil die Auswirkungen von Fehlentscheidungen gravierend sein können. Und genau so wird es auch in der IT-Sicherheit bleiben.

Natürlich werden wir in der Lage sein, viele Prozesse zu automatisieren und das tun wir auch schon. Aber wie weit wir dabei gehen, hängt letztlich nicht nur von der technischen Machbarkeit ab, sondern vom Risikoappetit derjenigen, die die Verantwortung tragen. Ob das eine Geschäftsführerin, ein CISO oder eine Betriebsleiterin ist – am Ende steht immer eine bewusste Entscheidung: Wie viel Kontrolle bin ich bereit abzugeben? Und wie viel Restrisiko will ich tragen?

Was wir als Anbieter oder technologische Treiber tun können, ist, diese Entscheidung transparent zu machen. Wir können die Optionen aufzeigen, Checklisten liefern, Handlungsempfehlungen geben, aber die Verantwortung für den Grad der Automatisierung bleibt bei den Unternehmen selbst.

In besonders regulierten oder kritischen Bereichen wird die Bereitschaft zur Vollautomatisierung naturgemäß geringer sein. In kleineren Unternehmen, wo vielleicht nicht die personellen Ressourcen für permanente Überwachung vorhanden sind, sieht das wieder anders aus. Aber in beiden Fällen bleibt es eine Risikodiskussion, keine rein technologische. Und deshalb wird es aus meiner Sicht auch nie eine vollständig automatisierte Security geben, die ohne menschliche Kontrolle auskommt.

Welche Rolle spielt dabei die Verantwortung der Hersteller?

Unsere Aufgabe als Hersteller ist es in erster Linie, Flexibilität zu bieten und den unterschiedlichen Anforderungen unserer Kunden gerecht zu werden, sei es durch technische Optionen oder durch unterstützende Rahmenbedingungen für den sicheren Einsatz von KI.

In der Praxis beobachten wir allerdings, dass viele Unternehmen mit hoher Geschwindigkeit häufig ohne ein strukturiertes Konzept in KI-Projekte einsteigen. Man will ausprobieren, was möglich ist, testet neue Funktionen, integriert Tools, oft ohne zu prüfen, ob dabei Datenschutz, Sicherheitsrichtlinien oder regulatorische Anforderungen ausreichend berücksichtigt werden. Dieses Verhalten erinnert stark an frühere Technologieeinführungen wie Cloud-Computing oder Containerisierung: Am Anfang steht oft ein experimenteller Umgang, und erst wenn erste Vorfälle auftreten oder gesetzliche Vorgaben greifen, beginnt das Umdenken.

Doch genau diesen Fehler sollten wir bei KI vermeiden. Der Gesetzgeber hat bereits reagiert, insbesondere in Europa mit dem AI Act. Auch wenn dieser aktuell noch nicht vollumfänglich in Kraft ist, gibt es schon heute Vorgaben, die Unternehmen betreffen. Vielen ist das gar nicht bewusst, ebenso wenig wie die Risiken, etwa durch unkontrollierte Dateneingaben in öffentlich zugängliche KI-Systeme.

Wenn sensible Informationen oder Geschäftsgeheimnisse über nicht abgesicherte KI-Dienste verarbeitet werden, kann das nicht nur rechtliche, sondern auch wirtschaftliche Folgen haben. Die Aufgabe liegt also auf beiden Seiten: Unternehmen müssen sich bewusst mit den Grundlagen und Regularien befassen, und wir als Anbieter müssen Hilfestellung leisten, etwa durch sichere technische Architekturen, transparente Modelle und Schulungsangebote, die den verantwortungsvollen Umgang mit KI fördern.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Warum fällt es der IT-Branche oft schwer, beim Einsatz neuer Technologien wie KI den Sicherheitsaspekt von Anfang an mitzudenken?

Genau darin zeigt sich ein klassisches Muster der IT-Branche: Zuerst wird eine neue Lösung implementiert, ausprobiert, weiterentwickelt  und erst danach beginnt die Auseinandersetzung mit den sicherheitsrelevanten Fragen. Dieses reaktive Vorgehen hat sich bei vielen Technologieeinführungen gezeigt, sei es bei Cloud, Mobile oder Containerisierung. Aber gerade bei KI wäre es an der Zeit, dieses Muster zu durchbrechen.

Wir sehen in der Praxis, dass es sinnvoll wäre, frühzeitig mit den Security-Experten zu sprechen, also bevor ein Tool eingeführt wird oder erste Anwendungsfälle entstehen. Die nötige Technologie gibt es bereits, auch wir bieten passende Lösungen an. Doch was fehlt, ist oft der Impuls, sich strukturiert mit Fragen zu beschäftigen wie: Welche Daten werden verarbeitet? Wer greift auf die KI-Tools zu? Welche Richtlinien gelten für deren Einsatz?

Faktisch nutzt heute nahezu jedes Unternehmen bereits KI – ob geplant oder ungeplant. Es reicht schon, dass Mitarbeitende ein öffentliches KI-Tool im Berufsalltag verwenden. In vielen Fällen geschieht das ohne zentrale Steuerung, ohne Kontrolle und ohne Awareness für die Risiken. Deshalb ist es essenziell, dass Unternehmen jetzt damit beginnen, nicht nur auf technischer Ebene nachzurüsten, sondern sich strategisch mit der KI-Nutzung auseinanderzusetzen, auch um zukünftige regulatorische Anforderungen erfüllen zu können.

Wie sehen Sie den Umgang mit KI aus unternehmerischer Sicht – gerade auch im Spannungsfeld zwischen Sicherheit, Regulatorik und dem praktischen Einsatz im Alltag?

Wir müssen heute nicht mehr diskutieren, ob wir KI einsetzen wollen. Diese Frage hat sich erledigt. KI ist, wie bereits erwähnt, eine disruptive Technologie, und wir werden sie weiterhin nutzen müssen, egal ob wir wollen oder nicht. Die entscheidende Frage ist: Wie machen wir das bestmöglich und sicher?

Und genau darum geht’s: herauszufinden, welche Bestandteile der KI für unser jeweiliges Unternehmen sinnvoll sind, wie man sie integriert, ohne dabei die Sicherheit aus dem Blick zu verlieren. Heute wird viel über Zero Trust gesprochen, über sichere Umgebungen, über Input-Kontrolle, Output-Kontrolle und den Einsatz in der Cybersicherheit. Und das ist auch gut so, denn unsere Branche muss per Definition immer ein Stück vorausdenken.

Wir befinden uns in einem ständigen Rennen, Angreifer auf der einen Seite, Verteidiger auf der anderen. Und KI kann uns dabei helfen, nicht erst zu reagieren, wenn der Angriff schon im System ist, sondern im besten Fall proaktiv zu verhindern, dass er überhaupt durchkommt. Und das funktioniert mittlerweile mit KI, richtig eingesetzt, schon sehr, sehr gut.

Was die gesellschaftlich-politische Ebene angeht: Auch die EU ist sich durchaus bewusst, dass es bei aller Regulatorik nicht darum geht, Innovation zu blockieren. Das Gleiche hatten wir bei der DSGVO. Auch da wurde anfangs gesagt, es ginge vieles nicht mehr – und dann haben wir gelernt: Doch, es geht, wenn man sich damit befasst.

Und genau da sehen wir als Anbieter auch unsere Aufgabe: Wir wollen unsere Kunden bei genau diesen Fragen begleiten. Nicht nur technische Lösungen liefern, sondern auch bei der Umsetzung von Regularien und Anforderungen unterstützen, damit der Einsatz von KI nicht nur möglich, sondern auch sicher und rechtskonform ist.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*