Amazon präsentiert neues KI-Musik-Keyboard

"DeepComposer" der Amazon-Tochter AWS soll Entwicklern das Maschinenlernen näherbringen. [...]

Keyboard und Co: KI-Lernspielzeuge für Entwickler. (c) AW)

Amazons Cloud-Computing-Tochter AWS hat anlässlich seiner Hausmesse re:Invent das laut Unternehmen erste durch Maschinenlernen ermöglichte musikalische Keyboard der Welt vorgestellt. Das 32-Tasten-Gerät „DeepComposer“ ist den Erfindern nach dazu gedacht, Entwicklern Maschinenlernen auf kreative Art näherzubringen – wenngleich Nutzer auch einfach nur damit musizieren können.

KI-Lernerfahrung

„Maschinenlernen (ML) erfordert einiges an Mathe, Informatik, Code und Infrastruktur. Diese Themen sind extrem wichtig, doch für viele angehende ML-Entwickler wirken sie überwältigend und bisweilen langweilig“, schreibt Julien Simon, AWS Technical Evangelist, im News-Blog des Unternehmens. Nach einer tiefenlernenden Kamera im Jahr 2017 und dem maschinenlernenden Modellauto „DeepRacer“ im Vorjahr präsentiert AWS 2019 den DeepComposer. Mit dem Kreativwerkzeug soll es gelingen, Entwicklern das Thema ML besser näherzubringen, weil die Beschäftigung damit so mehr Spaß mache.

DeepComposer gibt es als physisches Keyboard mit 32 Tasten, das zwei Oktaven abdeckt, ebenso wie als virtuelles Keyboard in der AWS-Konsole. Egal, welche Variante der User nutzt, die KI kann dank vorgefertigter Modelle Klassik-, Jazz-, Rock- oder Pop-Kompositionen erstellen und spielen. Der eigentliche Sinn des KI-Keyboards ist aber, Entwickler zum Schaffen und Trainieren eigener Modelle für die Musikerstellung zu animieren und sich dafür intensiver mit Themen des Maschinenlernens auseinanderzusetzen. Im Fokus stehen dabei speziell sogenannte „Generative Adversarial Networks“, auf neuronalen Netzen basierende Lernalgorithmen.

„Furchtbare“ Demo

Interessenten können sich auf der DeepComposer-Website anmelden, um bei Verfügbarkeit des Keyboards eine Verständigung zu erhalten. Ob sich das Warten denn auch lohnt, wird sich zeigen. Von einer ersten im News-Blog veröffentlichten Audio-Demo gibt sich Nick Collins, Experte für Musik-KI an der Durham University, jedenfalls unbeeindruckt. „Es ist furchtbar. Ein Musiker mit grundlegenden Sequenzierungs-Fähigkeiten könnte leicht bessere Beispiele erstellen“, meint er gegenüber der „BBC“. Allerdings scheint auch denkbar, dass AWS mit der schwachen Demo die Entwickler einfach anspornen möchte, damit sie zeigen, dass sie mehr können.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*