Haben Unternehmen den Einsatz von generativer KI (noch) im Griff?

Kaspersky-Befragung unter Führungskräften zeigt: 55,2 Prozent möchten KI-Tools in Zukunft stärker nutzen und repetitive Aufgaben automatisieren. [...]

Foto: GerdAltmann/Pixabay

Wie sehen Führungskräfte den Einsatz Künstlicher Intelligenz (KI) im eigenen Unternehmen? Gibt es Regeln oder werden Google Bard oder OpenAI ChatGPT im eigenen Unternehmen sicherheitskritisch und ohne Kontrolle angewendet? Eine aktuelle Kaspersky-Studie gibt Aufschluss darüber.

Allerding scheint das Thema sichere Nutzung noch ausbaufähig zu sein: denn mehr als die Hälfte (54,8 Prozent) geht davon aus, dass die Mitarbeitenden im eigenen Unternehmen im Verborgenen, also unkontrolliert, KI-Lösungen bei der Arbeit nutzen.

Vor einiger Zeit waren Lösungen im Bereich generativer KI noch technologische Neuheiten, mit denen die Nutzer experimentieren konnten. Innerhalb kurzer Zeit hat sich die Technologie von einem Experiment jedoch zu einem wichtigen Arbeitswerkzeug in vielen Bereichen und Organisationen entwickelt.

So plant laut aktueller Kaspersky-Studie auch mehr als die Hälfte der Führungskräfte (55,2 Prozent), solche Tools in Zukunft stärker zu nutzen und repetitive Aufgaben, die ihre Mitarbeiter derzeit täglich erledigen, zu automatisieren. Darüber hinaus strebt ein Drittel (34,4 Prozent) der Befragten an, die IT- und Cybersicherheitsabteilungen mithilfe von generativer KI zu automatisieren.

Dabei scheint auch das Management noch in der Experimentierphase zu stecken. Auf die Frage, welche Themen auf C-Level-Ebene bezüglich generativer Künstlicher Intelligenz am in den vergangenen sechs Monaten am ehesten diskutiert wurden, gab nur jeder vierte Befragte (24,8 Prozent) an, sich C-Level mit Richtlinien beschäftigt zu haben, die festlegen, wie Mitarbeitende KI-Lösungen nutzen dürfen und wie hierbei mit Unternehmensdaten und personenbezogenen Informationen umzugehen ist.

Dabei ist die Dynamik so groß und Risiken für die Datensicherheit von Unternehmen nicht mehr zu leugnen sind. Entsprechende Richtlinien wären jedoch von Bedeutung, da mehr als die Hälfte (54,8 Prozent) der Meinung sind, dass die eigenen Mitarbeitenden im Verborgenen, also unkontrolliert, KI-Lösungen bei der Arbeit nutzen.

Die Hälfte beunruhigt möglicher Abfluss sensibler Daten durch KI

Denn um effektiv zu arbeiten, ist generative KI auf kontinuierliches Lernen durch Dateneingabe angewiesen. Das bedeutet, dass alle Daten, die Mitarbeiter in eine KI-Anwendung wie ChatGPT oder Bard eingeben, nach außen weitergegeben. Daher ist auch nicht verwunderlich, dass die Hälfte der in Deutschland befragten Führungskräfte (50,4 Prozent) Bedenken hat, dass Mitarbeiter bei der Eingabe von Informationen in KI-Plattformen sensible Unternehmens- oder Kundendaten preisgeben könnten.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Der Schutz persönlicher Daten ist jedoch nicht nur bei generativer KI ein wichtiger Punkt.

Dennoch scheint die Aussicht auf den Verlust sensibler Daten und der Kontrolle über kritische Geschäftsbereiche die Unternehmensleitung nicht davon abzuhalten, weitere KI-Einsatzszenarien zu pushen – ohne über klare Sicherheitsrichtlinien innerhalb es eigenen Unternehmens zu verfügen.

Dies birgt jedoch enorme Risiken für die Unternehmen. Bevor Künstlicher Intelligenz in großem Umfang eingesetzt wird, sollten die Verantwortlichen in den Unternehmen genau verstehen, wie die Nutzer die Daten verwenden, insbesondere im Zusammenhang mit generativer KI. Darüber hinaus sollte es Regelwerke geben, an denen sich die Mitarbeiter orientieren können.

„Ähnlich wie BYOD bietet generative Künstlicher Intelligenz enorme Produktivitätsvorteile für Unternehmen. Aber während unsere Studie zeigt, dass Führungskräfte in den Vorstandsetagen die Verwendung von KI in ihren Unternehmen akzeptieren, ist das Ausmaß der Nutzung noch nicht umfassend geklärt.

Da die rasante Entwicklung von Künstlicher Intelligenz anhält, wird die deren unkontrollierte Verwendung  immer schwieriger zu kontrollieren und zu sichern. Das gilt in allen wichtigen Unternehmensfunktionen wie HR, Finanzen, Marketing oder sogar der IT.

Bevor die Technologie eingesetzt wird, ist es zwingend erforderlich, dass vor jeder weiteren Integration von generativer KI in die Unternehmensumgebung ein umfassendes Verständnis des Datenmanagements und die Implementierung robuster Richtlinien vorhanden ist.“

David Emm, Principal Security Researcher bei Kaspersky

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*