IBM will KI transparenter machen

Eine Cloud-basierte Software soll systematische Fehler in Daten und KI-Modellen aufdecken, Anpassungen empfehlen und Bedarf nach mehr Transparenz bei Künstlicher Intelligenz adressieren. [...]

IBM hat eine Software vorgestellt, die mehr Transparenz in den Bereich der Künstlichen Intelligenz (KI) bringen soll. (c) pixabay
IBM hat eine Software vorgestellt, die mehr Transparenz in den Bereich der Künstlichen Intelligenz (KI) bringen soll. (c) pixabay

Die neue Technologie von IBM soll in Echtzeit aufzeigen auf welcher Grundlage Entscheidungsvorschläge zustande kommen und automatisch quantitative und qualitative Mängel in Daten und KI-Modellen erkennen. Sie läuft auf der IBM Cloud und soll Unternehmen helfen, KI-Systeme für eine große Bandbreite an Branchen und Kunden nutzbar zu machen, indem sie Vertrauen in die Qualität der Entscheidungsvorschläge schafft. Zusätzlich übergibt IBM Research ein KI-Toolkit zur Erkennung von systematischen Fehlern und Anpassung an die Open-Source-Community. Damit soll der weltweite Austausch und die Zusammenarbeit zur Entwicklung von vorurteilsfreien KIs gefördert werden.

IBM hat bei der Festlegung von Vertrauens- und Transparenzgrundsätzen für die Entwicklung neuer KI-Technologien Maßstäbe für die ganze Industrie gesetzt“, erklärt David Kenny, SVP of Cognitive Solutions bei IBM. „Es ist an der Zeit, diesen Prinzipien auch Taten folgen zu lassen. Wir geben den Unternehmen, die KI einsetzen und dem potenziellen Risiko durch fehlerhafte Entscheidungen ausgesetzt sind, neue Transparenz und Kontrolle.”

Grundlage sind Untersuchungen von IBMs Institute for Business Value. Demnach streben zwar 82 Prozent der Unternehmen eine KI Einführung an, aber 60 Prozent befürchten Probleme mit der Verlässlichkeit der Technologie. Und 63 Prozent haben nicht die Mitarbeiter im Haus, um die Technik sicher zu managen.

Entscheidungen der Künstlichen Intelligenz sichtbar machen

Die neue Software in der IBM Cloud arbeitet mit Modellen, die sich aus einer Vielfalt von Frameworks für maschinelles Lernen und KI-Umgebungen wie Watson, Tensorflow, SparkML, AWS SageMaker, und AzureML zusammensetzt. Somit profitieren Unternehmen von den Kontrollmöglichkeiten für die meistverbreiteten KI Frameworks. Man kann damit aber auch die Entscheidungsgrundlagen von jedem Workflow überwachen. Die Software lässt sich also an die individuellen Bedürfnisse der Unternehmen anpassen.

Der vollautomatisierte Software-Service erklärt die Entscheidungsfindung durch KI während der Verarbeitung. So werden potentielle Mängel in Quantität oder Qualität der dem System zur Verfügung gestellten Daten oder nicht balancierte Ergebnisse von vornherein vermieden. Die Software empfiehlt gegebenenfalls automatisch, dem Modell mehr Daten hinzuzufügen, um Anpassungen vorzunehmen.

Die Erklärungen sind einfach zu verstehen und zeigen alle Faktoren klar auf, die Entscheidungen der KI in die eine oder andere Richtung beeinflusst haben und wie vertrauenswürdig der Vorschlag ist. Die Datengrundlagen zur Treffsicherheit, Ausführung und Fairness und die Herkunft des jeweiligen KI-Modells werden aufgezeichnet. So können Kundenservice oder Compliance-Verantwortliche jederzeit Einsicht nehmen, was auch für die europäische Datenschutzrichtlinie DSGVO wichtig ist.

Diese Möglichkeiten können Mitarbeiter ohne IT-Kenntnisse mit Hilfe von visuellen Dachboards nutzen. So können nicht nur spezialisierte KI-Experten nachvollziehen, wie KI-Entscheidungen getroffen werden, was Abhängigkeiten verhindert und mehr Vertrauen schafft. IBM stellt auch neue Beratungsservices zur Verfügung, mit denen Unternehmen ihre eigenen Prozesse und Schnittstellen von Mensch zu KI erstellen können – um systematische Fehler in den Entscheidungsvorschlägen von KI zu minimieren.

Mehr Fairness in der KI durch Unterstützung der Open-Source-Community

Zusätzlich übergibt IBM Research das AI Fairness 360 Toolkit an die Open Source Community. Dabei handelt es sich um eine Bibliothek mit neuartigen Algorithmen, Codes und Tutorials. Mit dieser Hilfe bekommen Akademiker, Forscher und Datenexperten das Wissen und die Fähigkeiten, Verzerrungen eleminieren zu können, während sie an Modellen zum maschinellen Lernen arbeiten. Andere Open-Source-Quellen haben sich nur auf die Entdeckung von Verzerrungen in Trainingsdaten konzentriert. Das IBM AI Fairness 360 Toolkit kann systematische Fehler in KI-Modellen aufdecken und vermeiden helfen. Die weltweite Open-SourceCommunity ist eingeladen, gemeinsam daran zu arbeiten, die Wissenschaft voranzubringen und Verzerrungen in der KI zu adressieren.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*