Überblick KI: Es gibt nicht die eine künstliche Intelligenz

Künstliche Intelligenz beherrscht auf wissenschaftlicher, wirtschaftlicher, gesellschaftlicher und politischer Ebene viele Diskussionen. [...]

Können IT-Systeme menschliche Intelligenz nachahmen? Unsere Autoren sagen: "Das liegt außerhalb der aktuellen technischen Möglichkeiten" (c) pixabay.com

Von Alexa bis zum autonomen Fahren, von Algorithmen bis zu Allmachtsfantasien – das Spektrum der Themen, die mit Künstlicher Intelligenz (KI) in Verbindung gebracht werden, ist breit. Experten und auch Laien führen unter dem Stichwort KI ganz unterschiedliche Verfahren und Konzepte ins Feld. Tatsächlich bringt jeder Ansatz andere Möglichkeiten mit sich und eignet sich für spezielle Einsatzszenarien in Unternehmen.

Generell ist KI ein Teilgebiet der Informatik und beschäftigt sich mit der Abbildung „intelligenten“ Verhaltens durch IT. Lange hat KI nicht den Sprung aus den Universitäten in die Unternehmen geschafft. Viele Erwartungen der frühen Jahre konnte die Technologie nicht erfüllen. Jetzt aber wendet sich das Blatt: Immer wieder berichten Medien über Durchbrüche, neue Einsatzgebiete und auch über neue Gefahrenpotenziale.

Drei Faktoren sind für den Siegeszug von KI verantwortlich: mehr Daten, billigere Speicherkapazitäten und eine ständig höhere Rechenleistung (beispielsweise durch NVIDIA-Grafikkarten-Farmen). Sie ermöglichen es Unternehmen, KI-Verfahren in immer komplexeren Konfigurationen einzusetzen.

Experten unterscheiden zwischen „starker KI“, deren Ziel es ist, menschliche Intelligenz nachzuahmen, und „schwacher KI“, die genutzt wird, um intelligente Entscheidungen für spezielle Teilbereiche zu treffen, etwa für die Automatisierung von Prozessen. Starke KI liegt außerhalb der aktuellen technischen Möglichkeiten.

Ungelöste fundamentale Probleme sorgen dafür, dass sie auf absehbare Zeit ein Gedankenspiel der Theoretiker bleibt – auch wenn die Berichterstattung teilweise anderes suggeriert. Schwache KI hingegen ist ein Ansatz, der heutzutage in vielen Anwendungen eine Rolle spielt. Im Folgenden wollen wir daher nur auf Aspekte der schwachen KI eingehen.

Kern eines KI-Systems ist ein Modell

Künstliche Intelligenz umfasst ein umfangreiches Set an Methoden, Verfahren und Technologien. Kern eines KI-Systems ist ein sogenanntes Modell, das für eine bestimmte Fragestellung modelliert ist – zum Beispiel um bei bestimmten Entscheidungen zu unterstützen oder Vorhersagen zu treffen.

Es gibt sowohl viele verschiedene Arten von Modellen als auch unterschiedliche Techniken dafür, Modelle zu erstellen. Welche zum Einsatz kommen, lässt sich am leichtesten anhand von konkreten Anwendungsfällen, sogenannten Use Cases, erläutern. Dazu später mehr.

Grundlegend lässt sich KI auf Basis der Repräsentation des Wissens in sogenannte symbolische und sub-symbolische Systeme unterteilen: In einem symbolischen System werden Regeln und Beziehungen für Konzepte angewendet, die für Menschen verständlich sind. Das heißt: Das Modell kann von Menschen gelesen und erfasst werden. Sub-symbolische Systeme hingegen sind für Menschen weitgehend Blackbox-Systeme, deren Inhalte nicht einfach zu verstehen sind.

Symbolisches und sub-symbolisches System

Folgendes Beispiel illustriert die unterschiedlichen Konzepte. Ziel ist es, in einer Gruppe von Menschen die Väter zu identifizieren. In einem symbolischen System stellen Experten die Regel auf, dass das Konzept „Vater“ eine Spezialisierung des Konzepts „Person“ darstellt; nämlich eine Person, die männlich ist und die mindestens eine Elternbeziehung zu einer anderen Person (seinem Kind) hat.

Wenn solche Regeln hinterlegt sind, kann das System Suchanfragen nach Vätern beantworten – und zwar selbst dann, wenn in den durchsuchten Daten die Eigenschaft „Vater“ nicht angegeben ist, sondern nur Informationen darüber existieren, welche Beziehungen zwischen Personen bestehen und welches Geschlecht Personen haben.

In einem sub-symbolischen System hingegen könnten Experten für die gleiche Aufgabe eine sogenannte Support Vector Machine (SVM) einsetzen oder ein künstliches neuronales Netz (KNN) verwenden. Beides sind Verfahren, die Experten häufig und erfolgreich für die automatische Klassifikation (Einordnung) von Daten zu bestimmten Klassen nutzen. Auch diese Verfahren sind prinzipiell dazu geeignet, Personen als Väter und Nicht-Väter zu klassifizieren.

Dazu teilt die Support-Vector-Machine einen multi-dimensionalen Datenraum in Form einer Ebene – einer sogenannten Hyperplane – auf, die die Personengruppen der Väter und Nicht-Väter separiert. In einem vereinfachten Beispiel mit zwei Dimensionen bedeutet dies, das Punkte in einem Koordinatensystem die zu bewertenden Daten darstellen und die SVM durch diese Punkte eine Gerade ermittelt, die die Punkte in zwei Klassen (Vater/Nicht-Vater) trennt.

Das neuronale Netz löst die Klassifikation „Vater/Nicht-Vater“ gänzlich anders, nämlich durch die Ableitung dieser Klassifikationen aus einer Menge vernetzter „Neuronen“. Diese bilden verschiedene Datentransformationen ab. Die Neuronen sind jeweils zu Ebenen zusammengefasst, und Neuronen benachbarter Ebenen sind durch gewichtete Verbindungen miteinander verknüpft. So werden in das Netz eingegebene Daten durch die Neuronen der verschiedenen Ebenen verarbeitet, um schließlich die Klasse „Vater“ oder „Nicht-Vater“ zu aktivieren.

Hidden Markov Model
Neben den beschriebenen Support Vector Machine und künstlichen neuronalen Netzen gibt es noch weitere Verfahren zur Modellbildung. Bekannt ist das sogenannte Hidden Markov Model (HMM), das insbesondere beim Einsatzgebiet Predictive Maintenance eine Rolle spielt.Das HMM basiert auf der sogenannten Markov-Eigenschaft: Ein Datenpunkt hängt nur vom Datenpunkt vorher ab (häufig auch von X Datenpunkten vorher: Markov Model X-ter Ordnung).Das Modell lernt, aus den gesammelten Daten selbst kurze Zeitfenster der Daten zu erzeugen.Wenn das Modell ein Zeitfenster nur sehr schlecht vorhersagen kann, signalisiert dies eine Anomalie und deutet auf ein Problem hin.Am Beispiel der Auswertung von Sensordaten an einem Motor lässt sich die Funktionsweise des HMM erläutern: Das HMM lernt den Zusammenhang von Umdrehungszahl und Temperatur im zeitlichen Ablauf. Fortlaufend sagt das das Modell nun Umdrehungszahl- und Temperaturdaten voraus, diese werden mit den echt gemessenen Daten abgeglichen. Weichen die echten und die vorhergesagten Daten stark voneinander ab, gehen die Experten von einem Defekt beziehungsweise einem Problem aus, das sich gerade andeutet.

Schon diese Erklärungen verdeutlichen: Der Prozess und die Funktionsweise sub-symbolischer Systeme ist mit wenigen Worten nur schwer zu vermitteln.

In dem symbolischen System können Menschen die Funktionsweise der Entscheidungsfindung „Vater/Nicht-Vater“ einfach nachvollziehen: Sie müssen nur die Regeln lesen und anwenden. Das System kann sogar die Entscheidung, warum eine Person ein Vater ist „erklären“, in dem es darstellt wie welche Informationen zu der Entscheidung beigetragen haben.

Die Nachvollziehbarkeit der Entscheidung für ein sub-symbolisches System – im genannten Beispiel eine Support-Vector-Machine oder ein neuronales Netz -, ist kaum nachvollziehbar. Den Prozess zu verstehen, der zum Entstehen von Ebenen in multidimensionalen Räumen beziehungsweise zu Gewichtungen von Beziehung zwischen Neuronen geführt hat, ist hochgradig komplex.

Zurück zur unternehmerischen Praxis: Welches System sich eignet, ist vom Kontext der Anwendung und des Unternehmens abhängig. Wenn die Regularien es verlangen, dass Entscheidungen beispielsweise über Kreditzusagen oder die Genehmigung von Bauverfahren nachvollziehbar und transparent sein müssen, scheiden sub-symbolische Verfahren für Unternehmen oder Behörden aus. Sie bieten keine Möglichkeit, solche Erklärungen zu liefern.

Anwendungsfälle für KI-Systeme

Keine Intelligenz ohne Lernen beziehungsweise Modellierung – das gilt auch für die Künstliche Intelligenz. Beim sogenannten Machine Learning (ML) handelt es sich um die Fähigkeit, ein Modell auf Basis von Daten automatisiert zu erlernen. Maschinelles Lernen gibt es in den Spielformen des überwachten, des unüberwachten und des verstärkenden Lernens (Reinforcement Learning):

  • Überwachtes Lernen bedeutet, dass Experten dem Verfahren für eine Trainingsdatenmenge jeweils vorgeben müssen, was die richtige Entscheidung ist. Da häufig große Trainingsmengen benötigt werden, um zu guten Ergebnissen zu kommen, ist der Aufwand dabei oft hoch.
  • Beim unüberwachten Lernen analysiert das System Daten hinsichtlich ihrer Ähnlichkeit beziehungsweise ihrer Distanz, ohne dass Experten Trainingsdaten eingeben. Ein Beispiel für unüberwachtes Lernen ist die Suche nach Klassen in einer Menge von Datenpunkten. In der Regel ist die einzige Eingabe beim unüberwachten Lernen die Anzahl der Klassen, die gefunden werden sollen.
  • Unter dem Begriff Reinforcement Learning fassen Fachleute Verfahren zusammen, die in der Form direkten Feedbacks lernen – nicht aber durch die Vorgabe von Trainingsbeispielen. Bekannte Anwendungsszenarien für diese Form des Lernens ist das Erlernen von Spielen wie Schach, Go oder verschiedenen Computer-Spielen.

Unabhängig von dem gewählten Verfahren kann ein Modell Zusammenhänge erkennen und neue Erkenntnisse liefern. Aus dieser Fähigkeit entsteht ein breites Spektrum an Einsatzmöglichkeiten:

  • Frühwarnsysteme im Maschinenbau, bei denen das System lernt, die Mechanismen, die zum Ausfall von Maschinen führen, frühzeitig zu deuten (Predictive Maintenance).
  • Das teil- oder vollautomatische Erkennen von relevanten Textpassagen in unstrukturierten Dokumenten, beispielsweise beim Prozess der Schadensmeldung in Versicherungen.
  • Automatische Verfahren zum Entdecken und Vorbeugen von Betrugshandlungen in der Finanz- oder Versicherungsbranche, die sogenannte Fraud Detection.

Selbst als autonomer Kameramann können die Modelle inzwischen genutzt werden. So bietet das Essener Start-up soccerwatch.tv eine Lösung an, die die Kameraführung während eines Fußballspiels übernimmt. Hier wurde erfolgreich ein KI-Modell trainiert, das selbstständig relevante Kamerapositionen und Einstellungen auswählen kann.

Aus der richtigen Kombination entsteht die richtige Lösung

Üblicherweise nutzen komplexe Systeme unterschiedliche Methoden der KI. Der folgende Anwendungsfall aus dem Bankenumfeld zeigt, wie Methoden zusammenspielen.

Die Fondsmanager in Banken verlassen sich bei ihren Anlageentscheidungen auf bankinterne Berater. Diese Experten lesen und bewerten Analysen, beispielsweise über die Entwicklung von Industriebereichen in unterschiedlichen Regionen der Welt. Es ist für einzelne Personen oder Teams aber schier unmöglich, alle relevanten Informationsquellen im Blick zu behalten und das Wissen über die Zusammenhänge dann auch noch passend abrufen zu können. KI-Verfahren ermöglichen es, Berichte automatisch zu analysieren und die Inhalte dann in Form einer natürlichen Sprachausgabe zur Verfügung zu stellen.

Mithilfe von Methoden des Natural Language Processing werden Texte analysiert und Informationen extrahiert, die maschinell verarbeitet werden können, das heißt: die von Maschinen „verstanden“ werden. Denn anders als für die meisten Menschen, stellt ein Text für eine Maschine lediglich eine Menge von Zeichen ohne Bedeutung (Semantik) dar. Die so gewonnenen Informationen werden in ein System eingespeist. Dieses enthält ein komplexes Modell, das Anlageentscheidungen vorschlagen kann.

Die Anfrage für eine Anlageempfehlung können die Finanzexperten in Form von natürlicher Sprache übermitteln: „Gib mir bitte eine Anlageempfehlung mit Schwerpunkt asiatische Märkte der Risikoklasse ‚ertragsorientiert‘.“ Das Sprachsignal wird dann mit den gleichen Verfahren in einen Text übersetzt, die Systeme wie Amazon Alexa, Google Home, Apple Siri oder Microsoft Cortana nutzen. Dabei handelt es sich meist um maschinelles Lernen auf Basis von neuronalen Netzen. In dem so erfassten Text erkennt das System dann die Zielsetzung des Fragenden, den sogenannten Intent. Das Wissensrepräsentationssystem erzeugt aus diesem Intent die Anlageempfehlung, die dann vorgelesen wird.

Allein in diesem Use Case arbeiten Methoden des Natural Language Processing, der Wissensrepräsentation und des Machine Learning zusammen, um die gewünschten Funktionen zur Verfügung zu stellen.

Bei der Planung sauber differenzieren

Die Beispiele und Erläuterungen zeigen: Hinter dem Thema KI stecken eine Vielzahl von unterschiedlichen Methoden, Verfahren und Technologien. Damit ein Projekt den gewünschten Erfolg erzielt und allen regulatorischen Anforderungen entspricht, müssen die Beteiligten bei der Planung sauber differenzieren. Entscheidend ist es, einzelne Komponenten so auszuwählen, dass sie in Summe den Anforderungen an Transparenz und Nachvollziehbarkeit genügen. Häufig führt mehr als ein Weg zum Ziel – aber nicht alle Wege stehen einem Unternehmen auch offen.

*Prof. Dr. Volker Gruhn ist Mitgründer und heute Aufsichtsratsvorsitzender der adesso AG. Außerdem hat er den Lehrstuhl für Software Engineering an der Universität Duisburg-Essen inne. Gruhn forscht unter anderem über mobile Anwendungen und Cyber-Physical Systems.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*