Die fünf wichtigsten Elemente von Confidential AI

Künstliche Intelligenz wird häufig als latente Gefahr für die Datensouveränität von Unternehmen beschrieben. Wer sich dieser Gefahr nicht aussetzen will, muss Strategien und Taktiken für den sicheren und zugleich produktiven Umgang mit KI entwickeln. [...]

„Confidential AI gibt Unternehmen und Anwendern die Souveränität über ihre eigenen Daten und Applikationen zurück“, sagt Andrea Wörrlein, Geschäftsführerin von VNC in Berlin und Verwaltungsrätin der VNC AG in Zug. „Künstliche Intelligenz kann so sicher, gezielt, unabhängig und praxisnah zur Steigerung der Produktivität wie auch der Arbeitszufriedenheit eingesetzt werden.“ (c) VNC

Künstliche Intelligenz und Confidential Computing stehen in einem scheinbar unauflösbaren Spannungsverhältnis: Einerseits stellt KI eine latente Bedrohung für Confidential Computing dar, andererseits kann sie bei dessen Umsetzung helfen. Das Zauberwort zur Auflösung dieses Widerspruchs lautet Confidential AI. Es beschreibt ein Konzept für den Umgang mit KI, das die größten Unsicherheitsfaktoren identifiziert und handhabbar macht. Daten und Datensouveränität stehen dabei an erster Stelle. Zusätzlich kann KI dadurch gezielt und sicher für die Optimierung von Kollaborations- und Kommunikations-Apps eingesetzt werden. VNC, Entwickler von Open-Source-basierten Unternehmensanwendungen, erklärt die wichtigsten Elemente.

Dezentrale LLMs

Üblicherweise laufen Large Language Models (LLMs) auf den proprietären Hyperscaler-Plattformen der Anbieter. Was dort mit den Daten passiert, bleibt im Ungewissen. Daher ist es sinnvoll, die LLMs über entsprechende Toolkits (etwa Intel OpenVINO) auf eigene Plattformen herunterzuladen. Sowohl die Daten als auch die Applikationen bleiben so im eigenen Rechenzentrum und sind vor unbefugtem Zugriff geschützt.

Local KI für die App-Optimierung

Abgespeckte Modelle dieser LLMs können direkt in Applikationen in dafür ausgelegten Software-Stacks integriert werden. Die Einbindung von KI-Funktionen wie intelligenten Assistenten ist so ohne Umwege und jederzeit transparent möglich. Über modulare Plattformen stehen sie zudem potenziell allen Anwendungen in gleicher Form modulübergreifend zur Verfügung.

Training der Modelle über lokale Knowledge Base

LLMs werden in der Regel mit Big Data trainiert. Durch die lokale Nutzung von LLMs können sie zusätzlich durch Abfragen auf die eigene Datenbasis schnell, gezielt und praxisnah weiter trainiert und optimiert werden. Dadurch sind sie auch jederzeit transparent und auditierbar.

Beschleunigung durch Indizierung

Zusätzlich kann der Zugriff auf die lokale Knowledge Base durch die Indizierung der Datenbestände beschleunigt werden. Abfragen erfolgen dann nicht mehr auf die gesamte Datenbasis, sondern nur noch auf die Indizes. Das erhöht die Schnelligkeit, Verfügbarkeit und Treffergenauigkeit – und damit die Produktivität.

Open Source

Open Source ist der natürliche Feind proprietärer Systeme. Um Abhängigkeiten (Vendor Lockin) von vornherein auszuschließen, sollten für Confidential Computing nicht nur chronisch intransparente anbieterspezifische KI-Plattformen (PaaS) gemieden werden, sondern auch auf der Software-Ebene (SaaS) sollte Open Source für KI-Anwendungen die erste Wahl sein.

„Confidential AI gibt Unternehmen und Anwendern die Souveränität über ihre eigenen Daten und Applikationen zurück“, sagt Andrea Wörrlein, Geschäftsführerin von VNC in Berlin und Verwaltungsrätin der VNC AG in Zug. „Künstliche Intelligenz kann so sicher, gezielt, unabhängig und praxisnah zur Steigerung der Produktivität wie auch der Arbeitszufriedenheit eingesetzt werden.“


Mehr Artikel

News

KI ist das neue Lernfach für uns alle

Die Mystifizierung künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich. […]

Case-Study

Erfolgreiche Migration auf SAP S/4HANA

Energieschub für die IT-Infrastruktur von Burgenland Energie: Der Energieversorger hat zusammen mit Tietoevry Austria die erste Phase des Umstieges auf SAP S/4HANA abgeschlossen. Das burgenländische Green-Tech-Unternehmen profitiert nun von optimierten Finanz-, Logistik- und HR-Prozessen und schafft damit die Basis für die zukünftige Entflechtung von Energiebereitstellung und Netzbetrieb. […]

FH-Hon.Prof. Ing. Dipl.-Ing. (FH) Dipl.-Ing. Dr. techn. Michael Georg Grasser, MBA MPA CMC, Leiter FA IT-Infrastruktur der Steiermärkischen Krankenanstaltengesellschaft m.b.H. (KAGes). (c) © FH CAMPUS 02
Interview

Krankenanstalten im Jahr 2030

Um sich schon heute auf die Herausforderungen in fünf Jahren vorbereiten zu können, hat die Steiermärkische Krankenanstaltengesellschaft (KAGes) die Strategie 2030 formuliert. transform! sprach mit Michael Georg Grasser, Leiter der Fachabteilung IT-Infrastruktur. […]

News

Risiken beim Einsatz von GenAI in vier Schritten senken

Die Themen Datenschutz und Modellverwaltung sind in der Datenwissenschaft zwar nicht neu, doch GenAI hat ihnen eine neue Dimension der Komplexität verliehen, die Datenschutzbeauftragte vor neue Herausforderungen stellt. Die Data-Science-Spezialisten von KNIME haben die Potenziale und Risiken der KI-Nutzung beim Einsatz bei der Datenarbeit zusammengefasst und empfehlen vier Schritte zur Risikominimierung. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*