„Oft wird vergessen, dass Daten nie neutral sind“

KI nimmt in der IT-Sicherheit eine ambivalente Rolle ein: Sie treibt Innovationen voran und unterstützt die Abwehr, wirkt zugleich jedoch als Katalysator für neue Bedrohungen und wirft ethische Fragen auf. Entsprechend vielschichtig gestaltete sich der ITWelt.at Roundtable zu Security und künstlicher Intelligenz. Die Redaktion sprach im Rahmen der Diskussion mit Dr. Markus Vesely, CEO der A-Trust GmbH. [...]

Dr. Markus Vesely, CEO der A-Trust GmbH. (c) timeline/Rudy Handl
Dr. Markus Vesely, CEO der A-Trust GmbH. (c) timeline/Rudy Handl

Wie gehen Sie als Vertrauensdiensteanbieter mit den Chancen und Risiken künstlicher Intelligenz um?

Als größter Vertrauensdiensteanbieter in Österreich ist künstliche Intelligenz für uns ein Thema, das wir mit großer Aufmerksamkeit beobachten. Gleichzeitig ist es keines, bei dem wir einfach unbedarft loslegen können. Für uns steht außer Frage, dass neue Technologien nicht leichtfertig getestet oder spielerisch ausprobiert werden dürfen – gerade weil unsere Systeme höchsten Sicherheitsanforderungen entsprechen müssen. Jeglicher Einsatz muss zu 100 Prozent verlässlich und vor Manipulation geschützt sein.

Deshalb betrachten wir KI aktuell eher mit einer gewissen Zurückhaltung – nicht aus mangelndem Interesse, sondern aus Verantwortung. 

Persönlich finde ich das Thema äußerst spannend. Dennoch gibt es Entwicklungen, die mich verunsichern. Besonders im militärischen Bereich ist derzeit vieles im Gange, von dem man oft nur am Rande etwas mitbekommt. Hier fehlt es bislang an globalen Regelungen oder Kontrollinstanzen, die dem Einsatz von KI klare Grenzen setzen.

Insofern bin ich in meiner Haltung gespalten: Einerseits sehe ich das große Potenzial dieser Technologie, andererseits auch die enormen Risiken, die damit verbunden sind – insbesondere dann, wenn sie ohne ethische Leitplanken eingesetzt wird.

Warum stellt gerade die Kombination aus menschlichem Knowhow und leistungsfähigen KI-Tools eine so große Bedrohung für die Cybersicherheit dar?

Durch die aktuellen KI-Modelle, insbesondere die LLMs, haben plötzlich sehr viele Menschen Zugriff auf Werkzeuge, die vor wenigen Jahren nur spezialisierten Gruppen zur Verfügung standen. Und ich halte die Kombination aus Mensch und Maschine nach wie vor für das Gefährlichste, was uns in der Cybersicherheit begegnen kann.

Ein gutes Beispiel ist der Bereich Deepfakes. Es gibt inzwischen Tools, die KI-generierte Inhalte erkennen können. Aber kaum sind diese auf dem Markt, entwickeln sich auch die Deepfake-Generatoren weiter und umgehen die Erkennungsmechanismen. Es ist ein ständiges technisches Wettrennen. Diese Dynamik zeigt sehr deutlich, wie anspruchsvoll das Verteidigungsgeschäft geworden ist.

Besonders kritisch wird es, wenn jemand bereits die entsprechenden Fähigkeiten – z.B. im Bereich Social Engineering – mitbringt und diese nun mit hochentwickelten KI-Tools kombiniert. Dann entsteht eine neue Qualität der Bedrohung. Gleichzeitig können auch Menschen, die bislang in diesem Bereich wenig Erfahrung hatten, durch den Einsatz von KI-gestützten Anwendungen sehr schnell sehr gefährlich werden.

Genau hier liegt aus meiner Sicht die größte Gefahr: In der Verbindung aus menschlicher Täuschungskompetenz und maschineller Skalierbarkeit. KI alleine ist bedrohlich. In Kombination mit menschlicher Absicht wird sie zur potenziell unkontrollierbaren Waffe.

Welche Rolle spielt aus Ihrer Sicht Quantencomputing in der zukünftigen Bedrohungslage? 

Die wirklich große Herausforderung liegt aus unserer Sicht in der Kombination aus künstlicher Intelligenz und Quantencomputing.

Gerade wir als Vertrauensdiensteanbieter bereiten uns bereits jetzt gezielt auf dieses Szenario vor, weil wir davon ausgehen müssen, dass mit dem Fortschritt im Quantencomputing unsere heute eingesetzten kryptografischen Verfahren künftig nicht mehr sicher sein werden. Die klassischen Verschlüsselungsalgorithmen, die wir heute als sicher ansehen, könnten innerhalb kürzester Zeit durch leistungsfähige Quantenrechner gebrochen werden.

Deshalb beschäftigen wir uns intensiv mit der Frage, wie wir dem begegnen können. In der Forschung gibt es bereits erste Ansätze im Bereich der Post-Quantum-Kryptografie. Und auch wir analysieren aktiv, welche Technologien und Verfahren künftig tragfähig sind.

Unser Zeithorizont ist dabei bewusst knapp gesetzt. Wir glauben nicht, dass wir hier noch zwei Jahrzehnte Zeit haben. Vieles deutet darauf hin, dass die Entwicklung schneller voranschreitet, vermutlich deutlich unter zehn Jahren. Und in Kombination mit KI ergibt sich eine zusätzliche Komplexität, die nicht unterschätzt werden darf.

Das heißt für uns ganz klar: Die Vorbereitung muss jetzt beginnen. Die nächsten Herausforderungen stehen bereits vor der Tür. Es wird also mit Sicherheit nicht langweilig, weder technisch noch strategisch. 

Was bedeutet der zunehmende Verlust an technischem Grundlagenwissen für den verantwortungsvollen Umgang mit KI?

Das ist ein Punkt, der in der Diskussion meiner Meinung nach nicht unterschätzt werden darf: Der schleichende Verlust an technischem Grundlagenwissen. Unsere Generation hat noch gelernt, wie Systeme wirklich funktionieren, sei es in der Informatik, der Mathematik oder in der Physik.

Heute ist der Zugang zu Technologie unglaublich bequem geworden. Man braucht kein tiefes Verständnis mehr, um leistungsstarke Werkzeuge wie ChatGPT oder andere KI-basierte Tools produktiv einzusetzen. Das ist auf der einen Seite natürlich eine große Chance, auf der anderen Seite aber auch eine ernstzunehmende Gefahr.

Denn je einfacher der Umgang mit komplexer Technologie wird, desto weniger setzen sich nachkommende Generationen mit ihren Grundlagen auseinander. Das Interesse zu verstehen, wie ein System zu einem Ergebnis kommt, nimmt ab. In zwei, drei Generationen könnte das bedeuten, dass nur noch sehr wenige Menschen überhaupt in der Lage sind, die zugrunde liegende Funktionsweise von KI-Modellen oder sicherheitsrelevanten Systemen zu erfassen.

Gerade im Kontext von Blackbox-Algorithmen stellt das ein ernsthaftes Risiko dar. Wenn kaum noch jemand die Systeme im Kern versteht, steigt nicht nur die Abhängigkeit, sondern auch die Gefahr von Fehlentscheidungen, Manipulationen oder blindem Vertrauen in Technologie.

Es reicht dann nicht mehr, die richtigen Tools zu besitzen – man muss auch Menschen haben, die sie kritisch hinterfragen können. Und das wird mit jeder Generation schwieriger, wenn das tiefe technische Verständnis weiter verloren geht.

Warum müssen sich Unternehmen gerade im Bereich digitaler Identitäten und Vertrauensdienste intensiv mit künstlicher Intelligenz und verwandten Technologien wie Quantencomputing auseinandersetzen?

Als Vertrauensdienstanbieter – unter anderem für Anwendungen wie ID Austria – tragen wir Verantwortung dafür, dass digitale Identitäten nicht kompromittiert oder manipuliert werden können. Der Missbrauch von Zertifikaten durch kriminelle oder staatlich gelenkte Akteure wäre ein massiver Vertrauensbruch und hätte weitreichende Konsequenzen.

Deshalb ist es für uns essenziell, mit den technologischen Entwicklungen Schritt zu halten, unsere Systeme regelmäßig zu hinterfragen und auch unsere Mitarbeitenden kontinuierlich zu schulen. Ein konkretes Beispiel ist das Thema Multi-Faktor-Authentifizierung: Früher war es noch üblich, als zweiten Faktor eine SMS zu verschicken. Das galt lange als sicher, bis sich herausstellte, dass solche Nachrichten abgefangen werden können.

Heute setzen wir bei ID Austria unter anderem auf biometrische Verfahren, um die zweite Faktorstufe abzusichern. Das bietet aktuell ein sehr hohes Schutzniveau. Aber genau das ist der Punkt: Auch diese Verfahren müssen wir laufend evaluieren. Was heute als sicher gilt, kann morgen durch neue Angriffsvektoren – möglicherweise auch durch KI oder Quantencomputing – infrage gestellt werden.

Für uns als Vertrauensdienstanbieter bedeutet das: Wir dürfen nie stehen bleiben. Wir müssen uns mit den neuesten Technologien auseinandersetzen, auch wenn wir sie nicht selbst entwickeln – denn nur so können wir gewährleisten, dass unsere Systeme und Identitätslösungen auch morgen noch sicher sind.

Warum bleibt trotz aller technologischen Entwicklungen der behördlich geprüfte Identitätsnachweis ein zentraler Eckpfeiler digitaler Vertrauenssysteme wie ID Austria?

Ich kann die Frage zur Identitätsübernahme durch KI-Bots in ihrer technischen Tiefe vielleicht nicht vollständig beantworten, aber was ich mit Sicherheit sagen kann: Bei der ID Austria ist die Identität klar an eine natürliche Person gebunden – und das wird durch einen behördlich geprüften Prozess sichergestellt.

Gerade bei der ID Austria Full ist es zwingend erforderlich, dass die Person physisch bei einer Behörde erscheint. Ein Beamter oder eine Beamtin prüft den Ausweis, gleicht die Daten mit der Person vor Ort ab und bestätigt damit, dass diese Identität tatsächlich existiert. Nur so wird die digitale Identität überhaupt freigeschaltet.

Dieses Verfahren garantiert, dass hinter jeder ID Austria eine real überprüfte Person steht und keine rein digitale Konstruktion. Das unterscheidet solche Vertrauenssysteme fundamental von rein technologiegetriebenen Identitätslösungen, bei denen nicht immer klar ist, wer oder was genau am anderen Ende steht.

In einer Zeit, in der KI-Systeme zunehmend autonom agieren und digitale Identitäten potenziell imitieren oder übernehmen können, bleibt dieser behördlich verankerte Schritt ein entscheidender Sicherheitsfaktor.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Warum ist es so wichtig, dass der Mensch auch in einer zunehmend automatisierten und KI-gesteuerten Welt die letzte Entscheidungshoheit behält?

Die Europäische Union hat bereits vor sechs Jahren sieben ethische Leitlinien für den vertrauenswürdigen Umgang mit künstlicher Intelligenz veröffentlicht. Einer dieser Grundsätze, den ich besonders wichtig finde, ist der Punkt „menschliche Handlungsfähigkeit und Kontrolle“.

Dort wird explizit betont, dass KI-Systeme zwar unterstützend wirken dürfen, die letzte Entscheidung aber beim Menschen liegen muss. Ein oft zitiertes Beispiel dafür ist die Krebsdiagnostik: KI kann heute in der medizinischen Bildauswertung bereits extrem präzise Muster erkennen und wertvolle Hinweise liefern. Aber am Ende soll – und muss – immer der Arzt oder die Ärztin die Verantwortung übernehmen und entscheiden.

Dieser ethische Grundsatz hat aus meiner Sicht auch weit über die Medizin hinaus Gültigkeit. In einer Zeit, in der KI in nahezu allen gesellschaftlichen Bereichen zum Einsatz kommt – von der Justiz über die Wirtschaft bis zur öffentlichen Verwaltung – sollten wir uns als Gesellschaft dieses letzte Entscheidungsrecht bewusst erhalten.

Technologisch wird in den nächsten Jahrzehnten sicher vieles möglich sein, was wir uns heute kaum vorstellen können. Aber die ethische Frage bleibt: Wollen wir das alles? Und wo ziehen wir die Grenze?

Ich hoffe sehr, dass wir uns auch in 100 Jahren noch auf diese Grundprinzipien stützen, nicht aus technischer Rückständigkeit, sondern aus bewusster Verantwortung. Denn Technologie kann uns unterstützen, aber sie sollte den Menschen nie vollständig ersetzen, wenn es um Entscheidungen mit Konsequenzen geht.

Dr. Markus Vesely, CEO der A-Trust GmbH (c) timelinie/Rudy Handl

Müssen wir nicht eigentlich viel stärker darüber sprechen, wie gefährlich unregulierter KI-Einsatz durch Mitarbeitende in Unternehmen ist?

Die Schatteninfrastruktur, von gewissen Mitarbeitenden getrieben, obwohl das Unternehmen vielleicht gar keine Regelung oder KI-Nutzungspolicy vereinbart hat, ist extrem gefährlich. Diese Personen sind oft auch gar nicht geschult und geben vielleicht personenbezogenen Daten von Kunden und Kundinnen oder der Gesellschaft via KI-Tool eins zu eins weiter.

Der richtige Ansatz wäre eigentlich, dass jedes Unternehmen den Einsatz von KI zwar grundsätzlich zulässt, aber eben ganz klar regelt: Was darfst du in die KI eingeben, welche Modelle stellen wir dir zur

Verfügung, welche darfst du nutzen – einfach damit man einen Überblick hat. Und gleichzeitig muss man Awareness schaffen und schulen, und das regelmäßig für alle Mitarbeitenden, auch für Assistenz- oder Logistikfachkräfte, denn wir alle verwenden diese Tools heute ganz selbstverständlich. Das heißt, keine Schatteninfrastruktur ermöglichen, und das geht eben nur, wenn man proaktiv aufklärt.

Und das bringt mich zu einem zweiten Punkt, den ich spannend finde: Es gibt eine große Diskrepanz zwischen dem, was Menschen über Technologie sagen, und dem, was sie wirklich nutzen. Die Durchdringungsrate ist oft viel geringer, als wir annehmen. Und wenn man bedenkt, dass es über zehn Jahre gedauert hat, bis heute etwa jede zweite berufstätige Person in Österreich die ID Austria nutzt – und das ist eine vergleichsweise einfache Technologie – dann sehen wir, wie lang der Weg bei etwas viel Komplexerem wie KI noch ist.

Und was man auch nicht vergessen darf: Nur weil jemand etwas nutzt, heißt das nicht, dass derjenige bzw. diejenige es versteht – oder sich nicht manipulieren lässt. Und gerade da sehe ich eine echte Gefahr, weil sich Menschen auch heute noch politisch oder gesellschaftlich beeinflussen lassen. Mit KI wird das nicht besser.

Welche Rolle spielt aus Ihrer Sicht die ethische Dimension von KI – gerade im Hinblick auf Transparenz, Datenschutz und gesellschaftliche Verantwortung?

Die klaren ethischen Leitlinien für den Umgang mit KI sind nicht nur ein Nice-to-have, sondern sollten aus meiner Sicht eine echte Richtschnur für jedes Unternehmen sein, das heute KI einsetzt oder entwickelt.

Was ich aber in der Praxis immer wieder sehe: Die ethischen Aspekte – etwa Transparenz, Fairness oder auch die technische Robustheit – geraten schnell aus dem Fokus, wenn es um Produktentwicklung oder den Einsatz von neuen Technologien geht. Das ist gefährlich, denn KI wirkt längst tief in gesellschaftliche Prozesse hinein. Und wenn wir das ernst nehmen, dann reicht es nicht, nur technisch gut zu sein – wir müssen auch ethisch verlässlich sein.

Ein Beispiel ist das Thema technische Robustheit: Wenn ich eine Software für ein autonomes Fahrzeug baue, muss ich sicherstellen, dass das System bei einem Bug nicht einfach weiterfährt, sondern in einen sicheren Zustand übergeht. Das ist keine Kleinigkeit, das kann Leben retten. Ethik ist hier nicht abstrakt, sondern ganz konkret mit Technik und Verantwortung verknüpft.

Ein weiteres Beispiel ist Transparenz – etwa in automatisierten Bewerbungsprozessen. In der Zukunft wird die erste Rückmeldung auf eine Bewerbung vielleicht nicht mehr von einem Menschen kommen, sondern von einem Chatbot. Dann ist es aus meiner Sicht absolut notwendig, dass dieser Bot nicht einfach nur „abgelehnt“ kommuniziert, sondern auch den Grund dafür nennt. Vielleicht fehlen bestimmte Qualifikationen, vielleicht passt das Profil nicht zur ausgeschriebenen Stelle – aber der Bewerber oder die Bewerberin hat ein Recht darauf, das zu erfahren. Es geht hier nicht nur um Höflichkeit, sondern um Fairness und Nachvollziehbarkeit.

Technik und Ethik müssen künftig noch viel enger miteinander verschmelzen. Es darf kein Entweder-oder sein. Wer verantwortungsvoll mit KI umgehen will, muss beides zusammen denken – sonst riskieren wir nicht nur Fehlentscheidungen, sondern auch das Vertrauen der Menschen in diese Technologie.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Gibt es einen Aspekt, der Ihnen persönlich besonders wichtig ist, wenn wir über KI, Daten und deren Auswirkungen sprechen?

Für mich ist ganz zentral – und das wird leider oft vergessen –, dass Daten nicht neutral sind. Viele gehen davon aus, dass Daten objektiv sind, einfach Fakten. Aber gerade bei KI-gestützten Systemen sehen wir, dass die Daten, mit denen diese Modelle arbeiten, aus der Vergangenheit stammen – und die Vergangenheit war eben nicht immer diskriminierungsfrei oder fair.

Wenn historische Ungleichheiten oder Vorurteile in den Daten stecken, dann übernimmt die KI genau das und verstärkt es im schlimmsten Fall sogar. Das kann zu sehr negativen Effekten führen, gerade im gesellschaftlichen oder sensiblen Bereich. Deshalb ist es so wichtig, sich immer wieder bewusst zu machen: Daten haben eine Geschichte, sie haben einen Kontext – und eben auch oft einen Bias.

Und dieser Bias kann, bewusst oder unbewusst, sogar für politische Manipulation genutzt werden. Deswegen finde ich es besonders wichtig, das nicht aus den Augen zu verlieren.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*