Highlights der IBM-Forschung

Am IBM Research Day im Forschungslab im Schweizer Rüschlikon am Zürcher See gewährte das Unternehmen Journalisten Einblick in seine aktuellen Forschungen. Neben der neuesten Quantencomputertechnik spielen zunehmend Nachhaltigkeit und Energieeffizienz ein Rolle. [...]

Mark Lantz ist Tape-Spezialist bei IBM Research Europe. (c) IBM
Mark Lantz ist Tape-Spezialist bei IBM Research Europe. (c) IBM

Dank einer 2G+-Regelung konnte trotz Pandemie gegen Ende letzten Jahres der IBM Research Day im europäischen Forschungslab in Rüschlikon abgehalten werden. Auf der zwei Tage dauernden Veranstaltung präsentierten Forscher und Forscherinnen zahlreiche Projekte. Die Bandbreite reichte von neuesten Erungenschaften im Bereich Quantencomputer über das Forschen an neuen Materialien bis hin zu optischen Computern, die auf der Verwendung von Licht statt Elektrizität aufbauen. Oft geht es bei den Projekten wie im Fall der noch ganz am Anfang befindlichen optischen Computer darum, Energie zu sparen beziehunsgweise nachhaltigere Technologien zu entwickeln. Dennoch: Die am meisten beachtete Technologie ist sicher die Weiterentwicklung der Quanten-computer – befindet sich doch ein solcher Rechner in Rüschlikon.

IBM durchbricht die 100-Qubit-Prozessor-Grenze

So präsentierte Heike Riel, Leiterin der Quanten-Forschungsabteilung von IBM Research Europe, in Rüschlikon mit dem IBM Quantum Eagle einen 127-Qubit-Quantenprozessor. Bei einem Quantenprozessor verdoppelt jedes zusätzliche Qubit die Menge an Speicherplatzkomplexität (die Menge an Speicherplatz, die zum Ausführen von Algorithmen benötigt wird), damit ein herkömmlicher Computer Quantenschaltkreise zuverlässig simulieren kann. Mit Quantencomputer werden neue Anwendungen möglich sein, da die Fähigkeiten solcher Computer weit über jene klassischer Rechner hinausgehen. Dabei arbeitet IBM eng mit der wissenschaftlichen Community zusammen und stellt dieser ihre jeweils aktuelle Quantenhardware frühzeitig für Forschungszwecke zur Verfügung.

Die Konstruktion eines Quantenprozessors ist ein technisch schwieriges Unterfangen. Die sogenannte Quantenverschränkung kann nur über sehr kurze Zeiträume aufrecht erhalten werden, die Quantendekohärenz ist eine große Herausforderung, das heißt, Qubits können bei der geringsten äußerlichen Einwirkung ihre Quanteninformationen „vergessen“. Dennoch: Aufbauend auf dem vorhandenen Knowhow und entsprechend großer Investitionen in diesem Bereich konnte Eagle in relativ kurzer Zeit entwickelt und gebaut werden, freut sich Riel.

Die aktuellen Eagle-Quantenprozessoren enthalten fast doppelt so viele Qubits wie IBMs 65-Qubit-Hummingbird-Prozessor aus dem Jahr 2020. Mittels der Kombination und Verbesserung vorhandener Technologien sollen unter Verwendung moderner 3D-Packaging-Techniken weitere Prozessorarchitekturen entwickelt werden, um damit schließlich den für 2023 geplanten Condor-Prozessor mit über 1.000 Qubits bauen zu können.

Eagle basiert auf IBMs sechskantigem Qubit-Layout, das erstmals beim Falcon-Prozessor eingeführt wurde. Dabei verbinden sich Qubits auf spezielle Weise entweder mit zwei oder drei Nachbarn. Diese besondere Konnektivität trägt dazu bei, die durch Wechselwirkungen zwischen benachbarten Qubits verursachte Fehleranfälligkeit zu verringern.

Eagle verwendet auch das Auslese-Multiplexing des Hummingbird R2. Bei früheren Prozessoren kam für jedes Qubit eine umfassende Steuer- und Ausleseelektronik zum Einsatz. Das ist zwar für ein paar Dutzend Qubits machbar, wäre aber viel zu sperrig für Prozessoren mit über 100, geschweige denn über 1.000 Qubits. Mittels Multiplexing der Auslesung kann die Menge an Elektronik und Verkabelung innerhalb des sogenannten Verdünnungskühl-schranks drastisch reduziert werden.

Daneben sei auch, so Riel, IBMs vorhandenes Knowhow in der klassischen Prozessorherstellung hilfreich, um eine skalierbare Zugangsverkabelung für alle Qubits bereitzustellen. Denn es ist eine Tatsache: Quantenprozessoren erfordern eine durchaus komplexe Verkabelung. Auf dem Weg zur nächsten Prozessorgeneration Condor wartet jedenfalls im Bereich der Mikrowellenschaltungskomponenten und -verkabelungen noch viel Arbeit auf die IBM-Ingenieure, weiß Heike Riel. Immerhin soll sich die Verkabelung möglichst nicht auf die Performance der Qubits auswirken.

Übrigens: Die Größe eines Quantenchips ist nur eine von drei Metriken, die IBM verwendet, um die Leistung eines Quantenprozessors zu messen. Wichtig ist auch die Messung des Quantenvolumens und die CLOPS (Circuit Layer Operations Per Second), die Auskunft darüber geben, wie schnell ein Quantenprozessor Schaltungen ausführen kann.

IBM Quantum System Two

IBM nutzte den Resarch Day, um auch das neue Quantensystem zu präsentieren: IBM Quantum System Two. Dieses soll sich vor allem durch Modularität auszeichnen und nicht nur die demnächst verfügbaren Osprey- und Condor-Quanten-prozessoren unterstützen, sondern auch in weiterer Zukunft gebaute Quantenprozessoren.

Eine neue kryogene Plattform von Bluefors mit neuartigem Design soll zudem den Platz im Inneren des für die beim Quantencomputing benötigten extrem niedrigen Temperaturen zuständigen Kühlschranks optimieren, um wiederum mehr Hardware unterzubringen, die von den größeren Prozessoren benötigt wird. Gleichzeitig wird dabei der Zugriff und die Wartung auf die Hardware im Kühlschrank erleichtert.

Letztlich geht es IBM auch im Quantenbereich darum, die Geschwindigkeit ihrer Prozessoren weiter zu erhöhen, um möglichst bald sogenannte Quantenvorteile zu realisieren, also bestimmte Aufgaben und Anwendungen lösen zu können, die mit einem herkömmlichen Computer nicht bewältigbar sind.

Comeback des Magnetbands

Gegenwärtig produziert die Mensch-heit weltweit täglich 2,5 Quintillionen Bytes an Daten. Das ist viel, sehr viel. Die Ursache dafür liegt vor allem in den stark zunehmenden Internet-of-Things-Anwendungen (IoT), hoch-auflösenden 4K/8K-Videos und KI-basierten Big-Data-Analysen. Geht es beim Zuwachs an gespeicherter Information so weiter wie bisher, wird die Menge an weltweiten Daten bis 2025 voraussichtlich 175 Zettabyte (ZB) betragen. Das entspricht einem jährlichen Wachstum von 61 Prozent. (Übrigens: Ein ZB entspricht einer Billion Gigabyte.)

Hier drängt sich dann doch die Frage auf: Wo sollen all diese Daten gespeichert werden? Gegenwärtig gibt es weltweit mehr als 500 Hyperscale-Rechenzentren, die schätzungsweise 547 Exabyte (EB) an Daten speichern. Diese gigantische Datenmenge bedeutet auch einen hohen Energieverbrauch. Experten schätzen, dass sich der Hyperscale-Energieverbrauch bis 2023 gegenüber 2015 fast verdreifacht. Was also tun?

Mark Lantz, Manager FPGA und Tape Technologies bei IBM Research, verweist hier auf eine Technik, die dieses enorme Datenwachstum bewältigen kann, sehr sicher ist und bereits für die Archivierung in einigen der größten Hyperscale-Rechenzentren eingesetzt wird: das über 60 Jahre alte Magnetband.

Und noch ein Weltrekord

Am IBM Research Day präsentierte Lantz das Resultat der mehr als 15-jährigen Zusammenarbeit zwischen IBM und Fujifilm. Dabei wurde auf einem von Fujifilm entwickelten Magnetband-Prototyp aus Strontiumferrit-Partikeln (SrFe) eine Flächendichte von 317 GB/in2 (Gigabit pro Quadratzoll) erreicht – das ist ein neuer Weltrekord. Das entspricht einer rund 27 mal höheren Flächendichte als derzeit in handelsüblichen topaktuellen Bandlaufwerken zum Einsatz kommt. Damit lassen sich auf einer einzelnen Magnetbandkassette in etwa 580 Terabyte (TB) an Daten speichern – das entspricht der Speicherkapazizät von 786.977 CDs, die, wenn aufeinandergestapelt, eine Höhe von 944 Metern ergeben – höher als das höchste Gebäude der Welt, das Burj Kalifa.

Die Magnetbandtechnologie hat sich in den sechzig Jahren ihres Bestehens stark weiterentwickelt. Aktuelle Tapes werden mit Bariumferrit-Partikeln (BaFe) beschichtet. Um die Dichte weiter zu erhöhen, hat Fujifilm die bereits erwähnte Strontium-Ferrit-Beschichtung entwickelt. SrFe erlaubt kleinere Partikel, wodurch eine Speicherung mit höherer Dichte auf derselben Bandlänge ermöglicht wird.

Neben der SrFe-Beschichtung sorgen weitere technische Erneuerungen dafür, noch mehr Daten auf einem Tape speichern zu können. Zu erwähnen sind hier eine neue reibungsarme Bandkopftechnologie, welche die Verwendung sehr glatter Bandmedien ermöglicht sowie ein Detektor, der für ein zuverlässiges Auslesen der Daten sorgt. Diese wurden zuvor auf dem SrFe-Medium mit einer linearen Dichte von 702 Kbpi geschrieben, um dann mit einem ultraschmalen 29 nm breiten TMR-Lesesensor zurückgelesen werden zu können.

Mittels neu entwickelter servomechanischer Technologien und Servocontroller wird zudem eine genaue Positionierung der Schreib-/Leseköpfe gewährleistet – dabei ist eine Kopfpositionierung mit einer beeindruckenden Genauigkeit von 3,2 nm möglich.

Beim Lesen wird das Band mit einer Geschwindigkeit von etwa 15 km/h über den Lesekopf bewegt und dank der neuen Servotechno-logien ist IBM imstande, den Tonkopf mit einer Präzision zu positionieren, die 1,5 mal der Breite eines DNA-Moleküls entspricht.

Nach IBM-Schätzungen sind gegenwärtig mehr als 345.000 EB an Daten in Bandspeichersystemen gespeichert. Mittels der erwähnten Technologien soll diese Speichertechnik zumindest für die nächsten zehn Jahre weiter skaliert werden können.

Tape-Technologie für die Cloud

Dank dieser Neuentwicklungen zeigt sich das 1952 erfundene Speichermedium Tape, das anfänglich nur eine Kapazität von etwa 2 MB pro Rolle bot, nicht nur als geeignete Techik für die Speicherung enormer Mengen an Sicherungs- und Archivdaten, sondern auch für neue Anwendungen wie hybride Cloud-Umgebungen.

Die Technologie von IBM und Fujifilm ist eine Verbesserung der Kapazität von etwa dem 50-fachen (exakt 48,3-fachen) gegenüber einer Standard-LTO8-Cartridge und eine 29-fache Verbesserung gegenüber aktuellen Enterprise-Tapes von IBM. Diese Band-technologie ermöglicht die nahtlose Anbindung an die Cloud-Technologie und das Schreiben auf oder Lesen von Tape via nativen Cloud-Anwendungen, ohne dass spezielle oder proprietäre Software erforderlich ist.

Was sind also die konkreten Vorteile für Unternehmen und Hyperscale-Anbieter, Daten per Tape zu archivieren? Zu nennen sind hier die niedrigen Kosten pro Gigabyte, die langfristige Haltbarkeit, die Zuverlässigkeit, der geringe Energieverbrauch, die Sicherheit und die technisch mögliche Skalierbarkeit von Bändern.

Das Speichern von Daten auf Band kostet ein paar Cent pro Gigabyte und wenn es nicht verwendet wird, verbraucht Tape im Gegensatz zu Festplatten und Flash keine Energie. Auf Band gespeicherte Daten sind von Cloud-Anbietern zuverlässig abrufbar, wenn sie benötigt werden. Zudem sind heute auf Band aufgezeichnete Daten bei richtiger Lagerung auch in dreißig Jahren noch lesbar.

Datenschutz und Sicherheit

Datenschutz und Sicherheit sind in der heutigen Hybrid-Cloud-Welt ebenfalls ebenfalls ein nicht zu vernachlässigendes Kriterium. Tape kann ein entscheidender Faktor beim Schutz vor Cyberangriffen und Ransomware sein. So können Magnetbänder physisch und logisch von allen elektronischen Verbindungen entkoppelt werden, wodurch eine physische Barriere (ein sogenannter „Airgap“ beziehungsweise eine „Luftlücke“) entsteht, sodass die Daten einen Cyberangriff unbeschädigt überstehen.

Damit nicht genug, arbeitet IBM bereits an einem zukunftssicheren, das heißt quantensicherem Bandlaufwerk, von dem der erste Prototyp vor einem Jahr vorgestellt wurde.

Last but not least muss ein Archiv skalierbar sein. Bei einem Datenwachstum von durchschnittlich 61 Prozent pro Jahr ist ein weiterer klarer Vorteil der Magnetband-Technologie, dass sie viel Potenzial zur Skalierung der Flächendichte bietet. Da die Größe der in aktuellen kommerziellen Bandsystemen verwendeten Bits im Vergleich zu Festplattenbits immer noch ziemlich groß ist, bietet das Band viel Spielraum, für die Verkleinerung der Bits, um so die Kapazität zu vergrößern. 


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*