Mensch-Maschine-Interaktion auf der ISS mit CIMON-2

An Bord der Internationalen Raumstation ISS stellte der ballförmige, freifliegende, mit künstlicher Intelligenz (KI) ausgestattete Technologie-Demonstrator CIMON-2 seine Funktionalitäten in der Interaktion mit dem ESA-Astronauten Luca Parmitano unter Beweis. [...]

Luca Parmitano mit CIMON auf der internationalen Raumstation ISS.
Luca Parmitano mit CIMON auf der internationalen Raumstation ISS. (c) ESA

Der in Deutschland entwickelte und gebaute Astronautenassistent CIMON-2 war am 5. Dezember 2019 vom Kennedy Space Center in Cape Canaveral, Florida, mit dem Versorgungsflug CRS-19 zur Internationalen Raumstation gestartet. Dort soll er bis zu drei Jahre bleiben. Sein Vorgänger, CIMON-1, kehrte nach insgesamt 14 Monaten im August 2019 auf die Erde zurück.

Knapp zwei Monate nach dem erfolgreichen Ersteinsatz von CIMON-2 liegen dem Projektteam jetzt die Auswertungen vor. Getestet wurden unter anderem die autonomen Flugfähigkeiten sowie die Sprachsteuerung der Navigation und die Erteilung von Aufgaben an CIMON-2. Zum ersten Mal wurde der Anflug zu einem spezifischen Punkt innerhalb des Columbus-Moduls der Internationalen Raumstation (ISS) erfolgreich absolviert. Dank der absoluten Navigation im Raum zeigte CIMON-2 sich in der Lage, durch verbale Befehle zu einem bestimmten Ort zu gelangen, unabhängig davon, wo er sich gerade befunden hat. So forderte Luca Parmitano, Astronaut der Europäischen Weltraumorganisation ESA, CIMON-2 während der Inbetriebnahme der neuen Hard- und Software auf, zum Biological Experiment Laboratory (Biolab) innerhalb des Columbus-Moduls zu fliegen. 

Tipp: „KI-Praxis im Unternehmen“, virtuelle Konferenz vom 26.-28.5. mit 52 Sprechern und Ausstellungsbereich. Kostenlos anmelden.

Eine weitere Aufgabe war es, auf Kommando Fotos und Videos im europäischen Modul der Internationalen Raumstation anzufertigen und diese dem Astronauten anschließend zu zeigen. Mit diesen Fähigkeiten wird CIMON-2 in der Zukunft wissenschaftliche Experimente auf der ISS unterstützen können. 

Die aktuelle Version des Technologie-Demonstrators verfügt über sensiblere Mikrofone und einen weiterentwickelten Orientierungssinn als sein Vorgänger (CIMON). Auch die KI-Fähigkeiten und die Stabilität der komplexen Software-Anwendungen wurden bei CIMON-2 erheblich verbessert. Zudem konnte die Autonomie des batteriebetriebenen Assistenten um etwa 30 Prozent erhöht werden. Bei CIMON-2 können Astronauten auf Wunsch eine linguistische Emotionsanalyse aktivieren. Damit kann der KI-Assistent auf seine Gesprächspartner empathisch reagieren. Die Technik dahinter ist der IBM Watson Tone Analyser

Ein weiteres Ziel des Projektes ist die Erforschung möglicher Stressreduktion durch einen intelligenten Assistenten wie CIMON. CIMON könnte als Partner und Begleiter Astronauten bei ihrem hohen Pensum an Experimenten, Instandhaltungs- und Reparaturarbeiten unterstützen und dadurch deren Stressexposition reduzieren. Mit CIMON ist eine mögliche Basis für soziale Assistenzsysteme im All gelegt, die bei Langzeitmissionen Stress durch Isolation oder auch durch gruppendynamische Prozesse verringern könnten – und die möglicherweise dazu beitragen können, solche Probleme auch auf der Erde zu mildern. 

Das CIMON-Team von DLR, Airbus, IBM und der wissenschaftlichen Partner LMU und des ESA User Support Centrums Biotesc zeigte sich sehr zufrieden mit der bisherigen Leistung von CIMON-2, weil die neue, verbesserte Hardware und komplexe Software sehr gut funktionieren.

Die CIMON-Familie

Entwicklung und Bau des interaktiven Astronauten-Assistenten CIMON wurden vom Raumfahrtmanagement im Deutschen Zentrum für Luft- und Raumfahrt (DLR) mit Mitteln des Bundesministeriums für Wirtschaft und Energie in Auftrag gegeben und von Airbus in Friedrichshafen und Bremen umgesetzt. Als sprachgesteuerte Künstliche Intelligenz dient die Watson KI-Technologie aus der IBM Cloud. Bei CIMON-2 sind folgende Watson Services im Einsatz: Watson Visual RecognitionWatson Speech to TextWatson Text to SpeechWatson AssistantWatson Tone Analyzer. Die menschlichen Aspekte des Assistenzsystems wurden von Wissenschaftlern des Klinikums der Ludwig-Maximilians-Universität München (LMU) mitentwickelt und betreut. Das ESA User Support Centrum Biotesc an der Hochschule Luzern in der Schweiz hat sich darum gekümmert, dass CIMON auch im Columbus Modul der ISS einwandfrei funktioniert und begleitet die Zusammenarbeit der Astronauten mit CIMON von der Erde aus.

Ein rund fünfzigköpfiges Projektteam von DLR, Airbus, IBM, Biotesc, ESA und der LMU arbeitete seit August 2016 für knapp zwei Jahre an der Realisierung von CIMON-1. Der Prototyp des Technologie-Experiments war vom 2. Juli 2018 bis zum 27. August 2019 auf der ISS und hatte am 15. November 2018 seine neunzigminütige Weltpremiere mit dem deutschen ESA-Astronauten Alexander Gerst. CIMONs Name erinnert nicht zufällig an „Professor Simon Wright“, den robotischen Assistenten – das „fliegende Gehirn“ – aus der japanischen Science-Fiction-Serie „Captain Future“. Nach der erfolgreichen Mission von CIMON-1 wurde der erste europäische autonome Roboter der astronautischen Raumfahrt zum deutschen Kulturgut ernannt und kehrte zur Erde zurück. CIMON-2 wurde in weniger als einem Jahr von ca. 20 Mitarbeiterinnen und Mitarbeitern der CIMON-„Familie“ realisiert. Demnächst wird CIMON-1 der Öffentlichkeit in Museen und Ausstellungen präsentiert, damit die CIMON-„Familie“ wächst und kommende Generationen dazu inspiriert, MINT-Fächer zu studieren.

Die Idee hinter CIMON

CIMON ist ein in Deutschland entwickeltes und gebautes Technologie-Experiment zur Unterstützung und Effizienzsteigerung der Arbeit eines Astronauten. CIMON kann Informationen, Anleitungen zu wissenschaftlichen Experimenten und Reparaturen darstellen und erklären. Ein Vorteil ist, dass der Astronaut beide Hände frei hat durch den sprachgesteuerten Zugriff auf Dokumente und Medien. Weitere Anwendungen sind etwa die Nutzung als mobile Kamera. Vor allem Routineaufgaben könnten durch CIMON erledigt werden, wie etwa die Dokumentierung von Experimenten, Suche nach Objekten und Inventarisierung. CIMON kann auch sehen, hören, verstehen und sprechen. Seine beiden Augen zur Orientierung sind eine Stereokamera, eine hochauflösende Kamera zur Gesichtserkennung und zusätzlich zwei weitere seitliche Kameras für Fotos und Videodokumentation. Ultraschall-Sensoren messen Abstände zur Kollisionserkennung. Seine Ohren sind acht Mikrofone zur Richtungserkennung plus ein Richtmikrofon für eine gute Spracherkennung. Sein Mund ist ein Lautsprecher, über den er sprechen und Musik abspielen kann. Kernstück der KI für das Verständnis von Sprache ist die IBM-WatsonKI-Technologie aus der IBM Cloud. Selbstständiges Lernen von CIMON wurde ausgeschlossen, er muss aktiv durch einen Menschen trainiert werden. Die KI zur autonomen Navigation stammt von Airbus und dient der Bewegungsplanung und Objekterkennung. Durch zwölf interne Rotoren kann sich CIMON frei in alle Raumrichtungen bewegen und rotieren. Somit kann er sich dem Astronauten zuwenden, wenn er angesprochen wird, Kopfnicken, Kopfschütteln und räumlich selbstständig oder auf Kommando folgen.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*