Der Einfluss von KI steigt unaufhaltsam – und mit ihm das wirtschaftliche Risiko für Unternehmen. Denn die neue Technologie bietet Cyberkriminellen und ihren immer einfallsreicheren Attacken gefährlich viel Angriffsfläche. Noch können Betriebe wirksame Schutzmaßnahmen ergreifen, aber die Zeit drängt. [...]
Die Marktforscher von IDC gehen in ihrer jüngsten Prognose davon aus, dass Unternehmen bis zum Jahr 2027 weltweit 143 Milliarden Dollar für generative KI ausgeben. Zum Vergleich: 2023 beliefen sich die Ausgaben noch auf 16 Milliarden Dollar. Doch mit dem sprunghaften Fortschritt steigt auch das Risiko, denn die neue Technologie ist in vielerlei Hinsicht verwundbar.
Eine KI hat keine Moral und kein Gewissen, sie zeigt weder Mitgefühl noch Emotionen. Ihre Entscheidungen trifft sie eigenständig und rational, allein auf der Basis von maschinellem Lernen und sich ständig weiterentwickelnden Algorithmen. Ohne ethische Prinzipien, ohne „gut“ oder „schlecht“. Weil sich Algorithmen und maschinelles Lernen manipulieren lassen, besteht die Gefahr, dass Cyberkriminelle diese Schwachstellen ausnutzen. Entweder täuschen sie ein KI-System mit manipulierten Daten, so dass es falsche Schlussfolgerungen zieht, oder sie trainieren die KI von vorneherein mit gezielt falschen Daten.
Manipulation von Algorithmen
Ein erhebliches Sicherheitsrisiko besteht darin, dass Cyberkriminelle Algorithmen entschlüsseln und sie auf Grundlage dieses Wissens täuschen. Ähnlich wie die SEO-Branche schon seit Jahren arbeitet: Spezialisten versuchen herauszufinden, wie der Google-Suchalgorithmus agiert, um Daten und Inhalte passgenau aufzubereiten. So gelingt es ihnen etwa, Unternehmenswebsites im Such-Ranking höher zu listen – zum wirtschaftlichen Vorteil der Firma.
Doch einen Algorithmus zu täuschen kann weit gravierende Auswirkungen haben, als den Wettbewerb zu verzerren. Autonome Fahrzeuge, die auf Menschenmengen zusteuern, eine KI-basierte Fluglotsen-Software, die Flugzeuge auf dicht besiedelten Wohngebieten abstürzen lässt, KI-gesteuerte Drohnen mit Sprengköpfen bestückt – kreative Kriminelle haben die Möglichkeit, eine Vielfalt an lebensbedrohlichen Gefahren zu realisieren, wenn sie Algorithmen entschlüsseln.
„Falsche“ Trainingsdaten
Das Verfälschen von Daten, die das maschinelle Lernen beeinflussen, ist eine weitere Angriffsmethode. Denn während des Lernens entwickeln sich Algorithmen abhängig von den zur Verfügung gestellten Daten immer wieder weiter. Verfälscht man diese Daten, lassen sich dadurch auch Folgehandlungen verändern sowie Fehlfunktionen und Ausfälle provozieren. Weil die KI während des Lernens auch auf öffentliche, für jeden Nutzer zugängliche Online-Daten zugreift, können Administratoren diese Angriffe nur schwer feststellen. Das macht sie besonders gefährlich. Aus den Daten der KI lässt sich zudem illegal deren Quelle bestimmen, beispielsweise mit dem Ziel, biometrische Fingerabdrücke eines KI-Systems zu missbrauchen.
Bewährte Methoden bieten keinen ausreichenden Schutz
Konzentrierten sich Kriminelle bislang darauf, in Unternehmensnetzwerke einzudringen, um Daten zu stehlen oder Systeme lahmzulegen, bieten ihnen Systeme auf Basis von KI ganz neue Angriffsvektoren. IT-Experten erwarten in Zukunft noch kreativere und gefährlichere Angriffsmethoden. Bewährte Sicherheitsinstrumente und Best Practices bieten daher für die Zukunft keinen ausreichenden Schutz. Die Verwundbarkeit der KI eröffnet Hackern völlig neue Arten von Angriffen, und die Abwehrmechanismen der Sicherheitsspezialisten greifen meist ins Leere. Es ist also dringend geboten, keine Zeit mehr zu verlieren, um Sicherheitsprodukte zu optimieren und sich vor neuen Gefahren mit wirksamen Abwehrmethoden zu schützen und.
Gefahrenbewusstsein und neue Abwehrmethoden entwickeln
Die Entwicklung von KI-Systemen wird auch in Zukunft voranschreiten und sogar noch an Intensität zunehmen, denn die gesellschaftlichen und wirtschaftlichen Vorteile lassen sich unmöglich ignorieren. Dabei werden maschinelles Lernen und Algorithmen in der Gesundheitsversorgung, der Automobilindustrie, der Landwirtschaft und in zahlreichen anderen Sektoren immer komplexere und kompliziertere Aufgaben meistern.
Weil immer mehr deutsche Unternehmen generative KI-Systeme nutzen, sind Maßnahmen, um ihre Schwachstellen zu erkennen, zu analysieren und zu schützen wichtiger denn je. Daher ist es unerlässlich, für die angespannte Bedrohungslage zunächst ein Gefahrenbewusstsein zu entwickeln. IT-Abteilungen sollten sich den Ernst der Lage immer wieder ins Gedächtnis rufen.
Eine denkbare Abwehrmethode wäre etwa, KI-Systeme mit zusätzlichen Algorithmen zu entwickeln, die Täuschungsversuche aufspüren können. Denkbar wären auch Schutzalgorithmen, die nach einem bereits erfolgten Angriff manipulierte Daten aufspüren und löschen. Sämtliche bereits bestehenden Schutzmechanismen sollten zudem in ihrer Wirksamkeit ausführlich überprüft und wenn nötig verbessert werden. Sollte das nicht passieren, drohen weitere – für Unternehmen existenzielle – Angriffswellen und Gefahrenszenarien, die heute noch jenseits unserer Fantasie liegen.
*Der Autor Wolfgang Kurz ist Geschäftsführer und Gründer von indevis.
Be the first to comment