Neues Gerät macht Quanteninformationen haltbarer

Wissenschaftler der Yale University ist ein Meilenstein bei ihren Bemühungen zur Ausweitung der Haltbarkeit und Zuverlässigkeit von Quanteninformationen gelungen. Erstmals haben sie den Break-Even-Point bei der Erhaltung eines Teils von Quanteninformation geschafft, der länger ist als die Lebensspanne ihrer Bestandteile. [...]

Das Team um Robert Schoelkopf hat ein neues System zur Verschlüsselung, Fehlererkennung, Entschlüsselung und Fehlerkorrektur bei einem Quantenbit, also einem Qubit, erzielt. Die Entwicklung eines derartig stabilen Verfahrens der Quantum Error Correction (QEC) war bisher eine der größten verbleibenden Hürden bei der Quanteninformationsverarbeitung.

„Das ist die erste Fehlerkorrektur, die tatsächlich natürlich auftretende Fehler entdecken und korrigieren kann,“ betonte Schoelkopf, Sterling Professor of Applied Physics and Physics at Yale und Direktor des Yale Quantum Institute. „Das ist erst der Beginn des Einsatzes der Quantenfehlerkorrektur beim Einsatz von Computern. Jetzt müssen wir QEC mit konkreten Rechenoperationen verbinden.“

Quantenfehlerkorrektur ist bei Bits aufgrund des Quantenzustands extrem schwierig. Anders als beim „klassischen“ Zustand von entweder null oder eins, kann der Quantenzustand null, eins oder eine Superposition von null und eins sein. Zusätzlich ist der Quantenzustand so unstabil, dass allein der Versuch der Beobachtung bei einem Qubit dazu führt, dass es wieder in den klassischen Zustand zurückkehrt.

Mitautor Andrei Petrenko, ein Yale-Student, erklärte, dass in diesem Experiment gezeigt werde, dass eine konkrete Superposition geschützt werden kann und die Quantenfehlerkorrektur nicht erkennen kann, ob ein Qubit null oder eins ist und trotzdem in der Lage ist, Fehler auszugleichen. Dem Team ist es teilweise gelungen, einen einfacheren Weg zur Verschlüsselung und Korrektur der Informationen zu finden. Die Wissenschaftler stellten eine Mikrowellenkavität her, in der sie eine gerade Anzahl von Photonen in einem Quantenzustand herstellten, der das Qubit speichert.

Anstatt die Photonen durch eine Messung oder sogar eine Zählung zu stören, ermittelten die Wissenschaftler ganz einfach, ob es sich um eine ungewöhnliche oder eben gerade Anzahl von Photonen handelte. Dieser Vorgang beruhte mittels eines bereits früher von dem Team entwickelten Verfahrens auf einer Art von Symmetrie. Geht ein Photon verloren, gibt es laut Mitautor Nissim Ofek eine ungewöhnliche Anzahl. „Wir können die Parität messen und so Fehler entdecken, auch ohne über weitere Informationen zu verfügen.“ Die von den Wissenschaftlern entwickelte Kavität kann die Lebensdauer eines Quantenbits um mehr als das Dreifache der heute typischen supraleitenden Qubits verlängern. Die Forschungsergebnisse wurden in Nature veröffentlicht. (pte)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*