Haben Unternehmen den Einsatz von generativer KI (noch) im Griff?

Kaspersky-Befragung unter Führungskräften zeigt: 55,2 Prozent möchten KI-Tools in Zukunft stärker nutzen und repetitive Aufgaben automatisieren. [...]

Foto: GerdAltmann/Pixabay

Wie sehen Führungskräfte den Einsatz Künstlicher Intelligenz (KI) im eigenen Unternehmen? Gibt es Regeln oder werden Google Bard oder OpenAI ChatGPT im eigenen Unternehmen sicherheitskritisch und ohne Kontrolle angewendet? Eine aktuelle Kaspersky-Studie gibt Aufschluss darüber.

Allerding scheint das Thema sichere Nutzung noch ausbaufähig zu sein: denn mehr als die Hälfte (54,8 Prozent) geht davon aus, dass die Mitarbeitenden im eigenen Unternehmen im Verborgenen, also unkontrolliert, KI-Lösungen bei der Arbeit nutzen.

Vor einiger Zeit waren Lösungen im Bereich generativer KI noch technologische Neuheiten, mit denen die Nutzer experimentieren konnten. Innerhalb kurzer Zeit hat sich die Technologie von einem Experiment jedoch zu einem wichtigen Arbeitswerkzeug in vielen Bereichen und Organisationen entwickelt.

So plant laut aktueller Kaspersky-Studie auch mehr als die Hälfte der Führungskräfte (55,2 Prozent), solche Tools in Zukunft stärker zu nutzen und repetitive Aufgaben, die ihre Mitarbeiter derzeit täglich erledigen, zu automatisieren. Darüber hinaus strebt ein Drittel (34,4 Prozent) der Befragten an, die IT- und Cybersicherheitsabteilungen mithilfe von generativer KI zu automatisieren.

Dabei scheint auch das Management noch in der Experimentierphase zu stecken. Auf die Frage, welche Themen auf C-Level-Ebene bezüglich generativer Künstlicher Intelligenz am in den vergangenen sechs Monaten am ehesten diskutiert wurden, gab nur jeder vierte Befragte (24,8 Prozent) an, sich C-Level mit Richtlinien beschäftigt zu haben, die festlegen, wie Mitarbeitende KI-Lösungen nutzen dürfen und wie hierbei mit Unternehmensdaten und personenbezogenen Informationen umzugehen ist.

Dabei ist die Dynamik so groß und Risiken für die Datensicherheit von Unternehmen nicht mehr zu leugnen sind. Entsprechende Richtlinien wären jedoch von Bedeutung, da mehr als die Hälfte (54,8 Prozent) der Meinung sind, dass die eigenen Mitarbeitenden im Verborgenen, also unkontrolliert, KI-Lösungen bei der Arbeit nutzen.

Die Hälfte beunruhigt möglicher Abfluss sensibler Daten durch KI

Denn um effektiv zu arbeiten, ist generative KI auf kontinuierliches Lernen durch Dateneingabe angewiesen. Das bedeutet, dass alle Daten, die Mitarbeiter in eine KI-Anwendung wie ChatGPT oder Bard eingeben, nach außen weitergegeben. Daher ist auch nicht verwunderlich, dass die Hälfte der in Deutschland befragten Führungskräfte (50,4 Prozent) Bedenken hat, dass Mitarbeiter bei der Eingabe von Informationen in KI-Plattformen sensible Unternehmens- oder Kundendaten preisgeben könnten.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Der Schutz persönlicher Daten ist jedoch nicht nur bei generativer KI ein wichtiger Punkt.

Dennoch scheint die Aussicht auf den Verlust sensibler Daten und der Kontrolle über kritische Geschäftsbereiche die Unternehmensleitung nicht davon abzuhalten, weitere KI-Einsatzszenarien zu pushen – ohne über klare Sicherheitsrichtlinien innerhalb es eigenen Unternehmens zu verfügen.

Dies birgt jedoch enorme Risiken für die Unternehmen. Bevor Künstlicher Intelligenz in großem Umfang eingesetzt wird, sollten die Verantwortlichen in den Unternehmen genau verstehen, wie die Nutzer die Daten verwenden, insbesondere im Zusammenhang mit generativer KI. Darüber hinaus sollte es Regelwerke geben, an denen sich die Mitarbeiter orientieren können.

„Ähnlich wie BYOD bietet generative Künstlicher Intelligenz enorme Produktivitätsvorteile für Unternehmen. Aber während unsere Studie zeigt, dass Führungskräfte in den Vorstandsetagen die Verwendung von KI in ihren Unternehmen akzeptieren, ist das Ausmaß der Nutzung noch nicht umfassend geklärt.

Da die rasante Entwicklung von Künstlicher Intelligenz anhält, wird die deren unkontrollierte Verwendung  immer schwieriger zu kontrollieren und zu sichern. Das gilt in allen wichtigen Unternehmensfunktionen wie HR, Finanzen, Marketing oder sogar der IT.

Bevor die Technologie eingesetzt wird, ist es zwingend erforderlich, dass vor jeder weiteren Integration von generativer KI in die Unternehmensumgebung ein umfassendes Verständnis des Datenmanagements und die Implementierung robuster Richtlinien vorhanden ist.“

David Emm, Principal Security Researcher bei Kaspersky

Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*