Fortune-500-Unternehmen sehen KI als potenzielles Risiko

KI wird von der Mehrheit der Fortune-500-Unternehmen als potenzieller Risikofaktor betrachtet, so ein Bericht von Arize AI. [...]

Rund 56 Prozent der Fortune-500-Unternehmen formulieren Befürchtungen in Sachen KI. (c) Pexels
Rund 56 Prozent der Fortune-500-Unternehmen formulieren Befürchtungen in Sachen KI. (c) Pexels

Die Studie „The Rise of Generative AI in SEC Filings“ von Arize AI zeigt, dass 281 der Fortune-500-Unternehmen KI mittlerweile als große Herausforderung ansehen. Darunter fallen die Befürchtungen, dass die betroffenen Organisationen nicht mit ihren Konkurrenten mithalten oder ihre KI-Ziele nicht erreichen können. Weiters werden allgemeine Schäden, regulatorische Herausforderungen sowie Sicherheitsrisiken genannt. 

Die erwähnten 281 Firmen entsprechen rund 56 Prozent der Fortune-500-Unternehmen, was einen Anstieg um 473 Prozent gegenüber dem Jahr 2022 bedeutet. 

In der aktuellen Studie erwähnen rund 64 Prozent KI in ihrem jüngsten Geschäftsbericht, während generative KI von einem von fünf Unternehmen ausdrücklich genannt wird.

In dem Bericht von Arize AI heißt es: „Wenn die Jahresberichte der Fortune-500-Unternehmen eines deutlich machen, dann das: Die Auswirkungen der generativen KI sind in einer Vielzahl von Branchen zu spüren sind – auch in solchen, die die Technologie noch nicht nutzen.“ 

Für den Bericht untersuchte Arize die neuesten Finanzberichte von Fortune-500-Unternehmen mit Sitz in den USA, um herauszufinden, wie große Unternehmen die Vorteile, Risiken und allgemeinen Auswirkungen von KI kommunizieren, und verglich die Aussagen mit denen des Jahres 2022.

Die Studie zeigt, dass vor allem Medien- und Unterhaltungsunternehmen, Finanzdienstleister sowie Software- und Technologiefirmen die Risiken durch KI kommunizieren. Software- und Technologieunternehmen sind erwartungsgemäß führend, was die Anzahl der Nennungen von generativer KI und großen Sprachmodellen angeht.

Mehr als jede andere Branche nennen knapp 92 Prozent der Unternehmen aus der Werbe-, Medien- und Unterhaltungsbranche KI als Risikofaktor für ihr Geschäft.

Die Studie zeigt, dass die Gründe, warum generative KI als Herausforderung genannt wird, im Allgemeinen in vier Kategorien zu unterteilen sind. So sind die Unternehmen beispielsweise besorgt, dass sie nicht mit der Konkurrenz mithalten oder ihre KI-Ziele nicht erreichen können.

Beispiel Netflix: „Neue technologische Entwicklungen, einschließlich der Entwicklung und Nutzung generativer künstlicher Intelligenz, schreiten schnell voran. Wenn unsere Konkurrenten durch den Einsatz solcher Technologien einen Vorteil erlangen, könnte dies unsere Fähigkeit, effektiv zu konkurrieren und unsere Geschäftsergebnisse negativ beeinflussen.“ 

Motorola Solutions weist darauf hin, dass KI möglicherweise nicht immer wie beabsichtigt funktioniert und dass Datensätze unzureichend sein oder illegale, voreingenommene, schädliche oder beleidigende Informationen enthalten könnten, was sich negativ auf die Betriebsergebnisse, den Ruf des Unternehmens oder die Akzeptanz der KI-Angebote durch die Kunden auswirken könnte.

Disney wiederum unterstreicht den Umstand, dass die Regeln für neue technologische Entwicklungen wie die generative KI nach wie vor ungeklärt sind und dass diese Entwicklungen Aspekte seines bestehenden Geschäftsmodells beeinträchtigen könnten – einschließlich der Einnahmen für die Nutzung seines geistigen Eigentums und der Art und Weise, wie Unterhaltungsprodukte erstellt werden.

Zu den potenziellen KI-Herausforderungen gehören auch Datenlecks oder erhöhte Cybersicherheitsrisiken.

„In Anbetracht der Tatsache, dass KI meist als Risikofaktor erwähnt wird, besteht für Unternehmen eine echte Chance, sich von der Masse abzuheben, indem sie ihre Innovationen hervorheben und einen Kontext für die Nutzung generativer KI liefern“, so der Bericht von Arize AI, der hier heruntergeladen werden kann. 


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*