Microsoft stellt Entwicklern neue Tools für die Integration von künstlicher Intelligenz (KI) in eigene Anwendungen zur Verfügung. [...]
Mit den neuen Diensten will Microsoft die „Demokratisierung“ von Künstlicher Intelligenz (KI) erreichen. Die Microsoft Cognitive Services sind 25 Dienste, die die Integration von Sprach-, visueller oder Stimmungserkennung sowie Sprachverständnis in Apps ermöglichen. Über REST APIs können Entwickler Anwendungen von Drittanbietern aller Unternehmensgrößen und Branchen mit künstlicher Intelligenz anreichern.
„Künstliche Intelligenz wird uns helfen, aus den vielen Informationen und Daten, die heute auf uns einwirken, Sinn und Wissen zu generieren und so mehr zu erreichen. Die neuen Cognitive Services, die wir vorgestellt haben, sind ein weiterer Schritt am Weg, dass Menschen und künstliche Intelligenz möglichst reibungslos und effizient zusammenarbeiten können“, so Georg Droschl, Leiter des Geschäftsbereichs Cloud & Enterprise bei Microsoft Österreich.
Drei neue Cognitive Serivces
Der ab sofort verfügbare Custom Speech Service, erkennt Sprache in unterschiedlich lauten Umgebungen sowie dialektisch, mundartlich oder fachlich gefärbte Formulierungen. Der Content Moderator erlaubt es, Texte, Bilder oder Videos nach unerwünschtem Material zu durchsuchen und etwa Gewaltszenen oder hetzerische Sprache herauszufiltern. Die Bing Speech API verwandelt Audiomaterial in Text, versteht den Inhalt solcher Texte und kann Texte auch in gesprochene Sprache (zurück-)verwandeln. Content Moderator und Bing Speech API werden ab März 2017 verfügbar sein.
Virtual-Reality-Unterhaltungen führen
Die Integration einer funktionierenden Sprachsteuerung erlaubt es zum Beispiel in Virtual-Reality-Spielen, dem Spieler die volle Kontrolle über den Erzählstrang einer Geschichte zu geben. Wie in Starship Commander von Human Interact: Das Spiel nutzt Microsoft Cognitive Services für die (Sprach-)Steuerung von Raumschiffen, die auch in Lichtgeschwindigkeit noch auf ihre Kapitäne hören, anstatt eine vorprogrammierte Geschichte abzuspielen.
Bei Starship Commander kommt auch der Language Understanding Intelligent Service zum Einsatz, um zu verstehen, mit welcher Absicht Spieler bestimmte Aussagen treffen. Ein „Raus hier!“ könnte sowohl die Aufforderung an den Maschinenraum sein, Vollgas zu geben, als auch der Befehl an jemanden, den Raum zu verlassen. Der Language Understanding Intelligent Service, derzeit in einer Public Preview verfügbar, erlaubt Entwicklern das Trainieren von Sprachmodellen mit unterschiedlichen Bedeutungen von Sprache. Auch dieser Service arbeitet auf der Basis jahrzehntelanger Forschungen, bei denen es darum geht, Dienste mit einer begrenzten Menge von Daten zu trainieren. Bei Starship Commander funktioniert das offensichtlich gut – so gut, dass sich CEO Alexander Mejia fast geschockt darüber zeigt: Es sei ein wenig angsteinflößend, wie gut das Spiel Sätze verstehe, die es nie zuvor trainiert habe, so Mejia: „Das ist Künstliche Intelligenz!“
Kundenindividuelle Sprachmodelle
Moderne Spracherkennung ist abhängig von statistischen Modellen, die maschinelles Lernen und die Skalierbarkeit der Cloud nutzen, um aus einer großen Menge von Daten akkurate Übersetzungen gesprochener Wörter zu produzieren. Über die Cognitive Services ist es möglich, akustische Modelle zu bauen, die aus kurzen Audioschnipseln Phoneme oder Toneinheiten in einer gegebenen Sprache erkennen. In Kombination mit den Phonemen in der unmittelbaren Nachbarschaft lassen sich gesprochene Wörter sicher erkennen. Die Vorhersage wird von einem speziellen Wörterbuch unterstützt, das alle Wörter der Zielsprache auf Phoneme-Ebene enthält. Um ähnlich klingende Wörter im Kontext zu bewerten, ziehen akustische Modelle auch kontextuelle Wahrscheinlichkeiten hinzu. So ist das Wort „Tor“ im Fußball wahrscheinlicher als „Treffer“ zu verstehen, denn als „Narr“. McDonald’s in den USA setzt die Spracherkennung ein, um einen möglichst reibungslosen Ablauf der Drive-ins zu ermöglichen.
Das Akustikmodell der Microsoft Speech Recognition API beruht auf einem neuronalen Netzwerk, das wiederum Theorien des menschlichen Spracherwerbs nutzt und mit tausenden Stunden Audiodateien aus der Cloud trainiert wurde. Dieser Spracherkennung gelang im Oktober 2016 der Durchbruch: Erstmals war die Engine in der Lage, Wörter einer seit 20 Jahren als Benchmark für Spracherkennung verwendeten Unterhaltung genauso gut zu erkennen wie ein Mensch.
Allerdings funktioniert das Modell nicht automatisch in unterschiedlichen, zum Beispiel lauten Umgebungen. Genau hier kommen die Custom Speech Services zum Tragen, die das Anpassen der Modelle an typische Umgebungen oder Sprachgewohnheiten erlaubt: Ob ein Geräusch ein Wort oder eine Hydraulikpresse ist, mag für Menschen einfach zu entscheiden sein. Maschinen müssen diesen Unterschied erst lernen – um das künftig dann zuverlässig zu erkennen.
Be the first to comment