Starke Ansage: IBM kündigt fünf Technologien an, die unser Leben verändern werden

Auf Basis der Fortschritte bei Künstlicher Intelligenz und in der Nanotechnik kündigt IBM eine Handvoll wissenschaftlicher Innovationen an, die das Potential haben sollen, unser Leben bis zum Jahr 2022 nachhaltig zu verändern. [...]

So wie 1609 Galileo das Teleskop entwickelte und damit das bis dahin nicht Beweisbare beweisen konnte, nämlich dass die Erde und die anderen Planeten unseres Systems um die Sonne kreisen, so will IBM Research mit neuartiger Software und Instrumenten diesem Beispiel folgen und das Unsichtbare unserer Welt vom Makro- bis zum Nanolevel sichtbar machen. Die Technologie-Ankündigungen, die IBM jetzt gemacht hat, fußen auf Ergebnissen von Marktanalysen, gesellschaftlichen Trends sowie Projekten aus den weltweit vorhandenen unternehmenseigenen Forschungszentren.
„Die wissenschaftliche Gemeinde hat schon immer Apparate entwickelt, mit deren Hilfe wir die Welt mit völlig neuen Augen sehen. So macht das Mikroskop für uns winzige Dinge sichtbar, das Thermometer hilft uns bei der Messung von Temperaturen“, so Dario Gil, Vice President of Science & Solutions bei IBM Research. „Auf Basis der Fortschritte im Bereich Künstliche Intelligenz und Nanotechnologie wollen wir nun eine neue Generation von Instrumenten entwickeln, die uns hilft, die komplexen, unsichtbaren Zusammenhänge in unserer heutigen Welt in den nächsten fünf Jahren besser zu verstehen.“ 
Künstliche Intelligenz gibt Einblick in unsere mentale Gesundheit
Einer von fünf Erwachsenen in den USA leidet heute unter neurologischen oder mentalen Beeinträchtigungen wie Huntington, Alzheimer, Parkinson, Depressionen oder Psychosen – aber nur etwa die Hälfte der Betroffenen ist in Behandlung. Die Kosten für die Therapien derartiger Erkrankungen übersteigen weltweit diejenigen für Diabetes, Atemerkrankungen und Krebs: Allein in den USA entstehen Kosten von mehr als einer Billion US-Dollar jährlich.
Viele Abläufe im Gehirn sind trotz der Erfolge in der Forschung nach wie vor ein Geheimnis. Ein Schlüssel für ein besseres Verständnis der komplexen Zusammenhänge ist die Sprache. In den nächsten fünf Jahren werden kognitive Systeme in der Lage sein, aus der Art und Weise, wie wir sprechen und formulieren wichtige Rückschlüsse auf unsere mentale Verfassung und physische Verfassung zu ziehen.
IBM-Experten kombinieren beispielsweise im Rahmen eines Projekts Abschriften und Tonaufnahmen aus Patientengesprächen mit maschinellem Lernen, um so in den Unterlagen Sprachmuster aufzudecken, die zukünftig dabei helfen sollen, Psychosen, Schizophrenie, manisches Verhalten oder Depression präzise vorherzusagen. Momentan benötigt das kognitive System, das diese Daten verarbeitet nur noch 300 Wörter, um eine entsprechende Vorhersage zu treffen.
In Zukunft hoffen die Forscher, dass ähnliche Techniken auch für die oben genannten Krankheitsbilder oder auch posttraumatische Belastungsstörungen und sogar bei Autismus und Aufmerksamkeitsdefizitstörungen angewendet werden können. Dafür analysieren kognitive Systeme Sprache, Aussagen, Syntax und Intonation der Betroffenen. Kombiniert mit tragbaren Geräten und bildgebenden Verfahren wie der Elektroenzephalografie (EEG), eine Methode zur Messung der elektrischen Aktivität des Gehirns durch Aufzeichnung der Spannungsschwankungen an der Kopfoberfläche, entsteht ein umfassendes Bild der Person und unterstützt so Psychologen und Mediziner bei der Diagnose und der zukünftigen Behandlungen.
Was früher unsichtbare Anzeichen waren, sollen künftig erkennbare Indikatoren dafür werden, ob bei einem Patienten der Ausbruch der Krankheit oder die Verschlechterung seines Zustands unmittelbar bevorsteht, die Behandlung anschlägt oder angepasst werden muss. Werden zusätzlich mobile Geräte eingesetzt, können der Patient oder seine Angehörigen bereits zu Hause entsprechende Untersuchungen selbst machen und so die Arzttermine helfen vorzubereiten.
Neuartige Sehhilfen kombiniert mit KI erweitern die Sehfähigkeiten
Das menschliche Auge kann mehr als 99,9 Prozent des elektromagnetischen Spektrums nicht sehen. In den letzten 100 Jahren hat die Wissenschaft jedoch entsprechende Geräte entwickelt, die mit Hilfe von Strahlen und ihrer Energie auf unterschiedlichen Wellenlängen Dinge sichtbar machen – Beispiele dafür sind das Radar oder Röntgenaufnahmen. Obwohl oft schon seit Jahrzehnten in Gebrauch, sind die Geräte nach wie vor nur von Spezialisten zu bedienen und teuer in Unterhalt und Anschaffung.
In fünf Jahren werden uns entsprechende Sehhilfen in Kombination mit KI erlauben, größere Bandbreiten des elektromagnetischen Spektrums zu sehen, um wertvolle Einblicke in Dinge zu bekommen. Der Clou: Diese Hilfen werden tragbar, bezahlbar und überall verfügbar sein.
Ein momentan viel diskutiertes und getestetes Anwendungsszenario sind selbstfahrende Autos. Mit Hilfe von kognitiven Systemen können plötzlich auftretende Hindernisse oder sich verschlechternde Wetterbedingungen besser und schneller als heute möglich analysiert werden, um das Fahrzeug sicher an seinen Zielort zu navigieren.
Einen Schritt weitergedacht: Was, wenn Technologien dieser Art zukünftig in unsere Smartphones verbaut werden und uns dabei helfen können, den Nährstoffgehalt eines Nahrungsmittels oder seine Haltbarkeit anzuzeigen? Oder helfen, die Echtheit eines Arzneimittels zu bestimmen? Schon heute arbeiten IBM-Wissenschaftler an einer entsprechenden kompakten Technologieplattform, die unsere Sehfähigkeiten deutlich erweitern wird.
Mit Makroskopie globale Zusammenhänge besser verstehen
Die Zusammenhänge und die Komplexität unserer unmittelbaren Umgebung bleiben uns in den allermeisten Fällen verborgen. Mit dem Internet der Dinge und seiner bereits mehr als sechs Milliarden verbundenen Geräte wird sich das nachhaltig ändern: Kühlschränke und Glühbirnen, Drohnen, Kameras, Wetterstationen, Satelliten oder Teleskope liefern jeden Monat bereits Exabytes an zusätzlichen, bisher nur wenig genutzten Daten. Nach der Digitalisierung von Informationen, Transaktionen und sozialen Interaktionen ist es jetzt an der Zeit, die Abläufe der physischen Welt zu digitalisieren.
In den nächsten fünf Jahren werden Machine-Learning-Algorithmen und -Software dabei helfen, diese Informationen aus der physischen Welt zu organisieren und zu verstehen. Man nennt diesen Ansatz Makroskopie. Im Gegensatz zu einem Mikroskop oder einem Teleskop  sind Systeme, die für dieses Konzept entwickelt werden,  darauf ausgerichtet, Wechselwirkungen von Dingen zu analysieren, die mit bloßem Auge erkennbar, aber nicht einfach in einen Zusammenhang gebracht werden können.
Beispiel Landwirtschaft: Durch das Sammeln, Organisieren und Analysieren von Daten zu Klima, Bodenbeschaffenheit, Grundwasserspiegel und Anbaumethoden können zukünftig Bauern auf Basis entsprechender Daten ihr Saatgut auswählen, den richtigen Standort für Felder bestimmen und den Ertrag optimieren – ohne dabei beispielsweise kostbare Grundwasserreserven unnötig auszubeuten.
2012 begann IBM Research ein Projekt mit dem US-amerikanischen Winzer Gallo, in dessen Verlauf Bewässerungsmethoden, Bodenbeschaffenheit, Wetterdaten von Satelliten und andere Details ausgewertet wurden, um die beste Bewässerung für optimale Ausbeute und Qualität für dessen Böden sicherzustellen. In der Zukunft werden solche Makroskopie-Ansätze überall eingesetzt werden können – beispielsweise in der Astronomie, um dort anfallende Daten über Asteroiden auszuwerten, ihre Materialzusammensetzungen exakter zu ermitteln und Kollisionskurse vorherzusagen.
Medizinisches Labor-on-a-Chip
Früherkennung von Krankheiten ist entscheidend für deren Behandlung. Allerdings gibt es auch Krankheiten wie das oben erwähnte Parkinson-Syndrom oder Krebs, die nur schwer frühzeitig zu diagnostizieren sind. Eine Möglichkeit der Früherkennung sind Biopartikel in Körperflüssigkeiten wie Speichel, Tränen, Blut, Urin oder Schweiß. Da diese Partikel aber oft 1.000-mal kleiner sind als der Durchmesser eines menschlichen Haars, sind sie extrem schwer nachzuweisen.
In den nächsten fünf Jahren werden Chips zu winzigen medizinischen Laboren, die unsere Körperflüssigkeiten scannen und uns rechtzeitig darüber informieren, einen Arzt aufzusuchen. Das Ziel der Forschungen ist es, die notwendigen Untersuchungen, für die bisher eine voll ausgestattete Laborumgebung gebraucht wurde, auf einem einzigen Chip zu bündeln. Es ermöglicht den Nutzern in Zukunft, schnell und regelmäßig Biomarker auszulesen und diese Informationen bequem von zu Hause in die Cloud zu geben. Dort können sie mit weiteren Daten von beispielsweise Schlafmonitoren oder Smart Watches verknüpft werden und von einem kognitiven System analysiert werden. Die Kombination aus verschiedenen Datensätzen ergibt einen umfassenden Einblick in den Gesundheitszustand und kann problematische Indikatoren frühzeitig identifizieren.
IBM-Wissenschaftler arbeiten bereits an einer „Lab-on-a-chip“-Nanotechnik, die Biopartikel mit einem Durchmesser von lediglich 20 Nanometern und damit in der Größenordnung unserer DNA, von Viren oder Exosomen trennen und isolieren kann.  
Intelligente Sensoren entdecken Umweltverschmutzung in Echtzeit
Die meisten Schadstoffe sind für das menschliche Auge unsichtbar – bis ihre Auswirkungen nicht mehr zu ignorieren sind. Methan beispielsweise ist eine Komponente von Erdgas, einer eigentlich sauberen Energiequelle. Wenn Methan allerdings in die Luft gelangt, bevor es verbrannt wird, trägt es neben Kohlendioxid entscheidend zur Erderwärmung bei.
In den Vereinigten Staaten entsteht Methan vor allem bei Verarbeitungsvorgängen in der Öl- und Gasindustrie. Die amerikanische Umweltbehörde EPA schätzt, dass allein aus natürlichen Methanquellen 2014 mehr als neun Millionen Tonnen Methan ausgetreten sind. Das entspricht der Menge von Treibhausgasen, die in den letzten 100 Jahren von den der amerikanischen Eisen- und Stahl-, Zement- und Aluminium-Branchen zusammengenommen produziert wurden.
In fünf Jahren werden neue, preiswerte Sensortechnologien verfügbar sein, die an den Gasquellen, Tanks und Pipelines angebracht werden und dafür sorgen, dass die Industrie bisher schwer zu findende Lecks in Echtzeit entdeckt werden. Netze aus Sensoren des Internets der Dinge werden in der Cloud miteinander verbunden sein und die weit verstreuten Quellen und die Förder-Infrastruktur überwachen, um innerhalb von Minuten  – statt wie bisher nach Wochen – ein Leck zu entdecken. Sie helfen damit, Verschmutzungen und die Wahrscheinlichkeit von Katastrophen zu reduzieren.
IBM-Forscher arbeiten bereits mit Gasunternehmen wie Southwestern Energy aus Texas zusammen, um im Rahmen des ARPA-E Methane Observation Networks with Innovative Technology to Obtain Reductions (MONITOR) program ein entsprechendes, intelligentes Methanüberwachungssystem zu entwickeln.
Die Forscher nutzen dazu Silicon Photonics – eine Technologie, bei der Daten zwischen Computerchips durch Licht übertragen werden. Der Vorteil: Licht kann in kürzerer Zeit weitaus mehr Daten übertragen als elektrische Leiter. Diese Chips können in Netzwerksensoren direkt vor Ort, an anderen Stellen der Überwachungskette oder auch in Drohnen integriert werden. So kann aus Echtzeitdaten ein komplexes Umweltmodell entwickelt werden, das den Ursprung und die Menge der Schadstoffe in dem Moment bestimmt, in dem sie auftreten.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*