Googles DeepMind-Team hat zusammen mit Kollegen des Imperial College London Künstliche Intelligenz (KI) auf die nächste Entwicklungsstufe gehoben. [...]
„Die Fähigkeit, die Lösung bestimmter Aufgaben sequenziell zu erlernen, ohne dabei bereits bestehendes Wissen zu vergessen, ist ein zentraler Bestandteil sowohl der biologischen als auch der KI“, so die Forscher in ihrem „PNAS“-Beitrag. In letztgenanntem Bereich sei es bislang aber nicht möglich gewesen, auf eine Art Gedächtnis zurückzugreifen. „Es ist ein signifikanter Mangel, dass neuronale Netzwerke und KI bis jetzt nicht in der Lage waren, etwas, das sie im Zuge einer vorangegangenen Aufgabe gelernt haben, auch bei anderen Herausforderungen einzusetzen“, sagt Studienautor James Kirkpatrick aus dem DeepMind-Team gegenüber „Wired“.
Bei einem ersten Praxistest wurde die Google-KI DeepMind auf tiefe, neurale Netzwerke – das sogenannte „Deep Q-Network“ (DQN) – angesetzt, die es schon früher genutzt hatte, um zehn verschiedene klassische Atari-Videospiele zu meistern. Diesmal bekam die KI allerdings handfeste Unterstützung durch den EWC-Algorithmus. „Bislang musste das DQN lernen, wie man jedes einzelne Spiel individuell spielen kann. Durch die EWC-Erweiterung war es aber in der Lage, jedes dieser Videospiele nacheinander zu erlernen, ohne dabei an katastrophalem Gedächtnisverlust zu leiden“, resümieren die Forscher.
Be the first to comment