Risiken & Schwächen: Verschlüsselung in der Zukunft – Was ist wirklich sicher?

Was heute sicher erscheint, ist womöglich bald schon wieder geknackt. Quantencomputer und Co. machen es selbst den besten Algorithmen nicht leicht. Aktuell warnen Kryptologen davor, dass mit RSA einer der Grundpfeiler der verschlüsselten Kommunikation ins Wanken gerät. So sieht die Zukunft aus. [...]

Kryptologie, die Wissenschaft von der Ver- und Entschlüsselung, hat seit den ersten Geheimschriften der altägyptischen Zivilisation enorme Fortschritte gemacht. Paradoxerweise ist der Fortschritt jedoch gleichzeitig der größte Feind der Verschlüsselung: Durch schnellere PCs und neue mathematische Erkenntnisse werden sicher geglaubte Verschlüsselungsmethoden immer wieder ausgehebelt. Aktuell warnen Kryptologen davor, dass mit RSA einer der Grundpfeiler der verschlüsselten Kommunikation ins Wanken gerät. Für die sichere Datenübertragung suchen sie nach dem unknackbaren Algorithmus der Zukunft.
WETTLAUF GEGEN STEIGENDE RECHENLEISTUNG
Kryptologie hat sich seit den 70er Jahren zu einer akademischen Disziplin entwickelt, die heute ohne große Geheimniskrämerei an vielen Universitäten gelehrt wird. Zum Entwickeln und Knacken von Verschlüsselungstechniken stehen heute Superrechner mit mehreren Petaflop (Floating Point Operations Per Second) zur Verfügung. Im Vergleich: Ein aktueller Core i7 mit vier Kernen leistet 0,0001 Petaflop. Eines der ersten Opfer der steigenden Rechenleistung war 1998 der 20 Jahre zuvor erfundene Data Encryption Standard (DES). Die Länge des Schlüssels beträgt bei diesem Algorithmus nur 56 Bit. Für moderne Superrechner ist das nurmehr eine kleine Herausforderung. Aktuelle symmetrische Algorithmen wie AES müssen mit mindestens 128 Bit arbeiten. Die Anzahl möglicher Schlüssel beträgt hier 3,4 x 10^38. Ein Supercomputer, der zum Brechen von DES durch das Ausprobieren sämtlicher Schlüssel nur eine Sekunde benötigt, ist bei AES 149 Billionen Jahre beschäftigt. Public-Key-Verfahren brauchen längere Schlüssel und die empfohlene Länge liegt bei 2048 Bit.
KRYPTOANALYSE MIT BIG DATA
Der Begriff Big Data beschreibt gigantische Datenmengen, die sich wegen ihrer Größe nicht mehr in herkömmlichen Datenbanken speichern lassen. Dem Thema ist in diesem Dossier der Artikel „Big Data“ gewidmet. Lineare und differentielle Kryptoanalyse setzen große Datenmengen voraus. Bei der linearen Analyse werden Zusammenhänge zwischen Klartext und Schlüsseln untersucht. Die differentielle Analyse basiert auf der Untersuchung ähnlicher Klartexte und den Unterschieden in den dazugehörigen Geheimtexten. Analyseverfahren mit sehr großen Datenmengen könnten Schwachstellen in bisher sicher geglaubten Algorithmen finden – vorausgesetzt, genügend Rechenleistung steht zur Verfügung. Ein dazu geeignetes Rechenzentrum entsteht zurzeit in der Wüste von Utah im Auftrag der National Security Agency (NSA), jener legendären berüchtigten US-Behörde, die für die Überwachung, Entschlüsselung und Auswertung elektronischer Kommunikation zuständig ist.
Das Utah Data Center soll Schätzungen zufolge einen Supercomputer auf rund 8000 Quadratmetern sowie Speichermöglichkeiten auf 275 000 Quadratmetern beherbergen. Gewählt wurde der abgelegene Platz in Utah, da der US-Bundesstaat über genügend Reserven zur Energieversorgung verfügt. In Ford Meade, dem Hauptsitz der NSA in Maryland, ist die Stromversorgung bereits an ihrem Limit angekommen. Über die Rechenleistung, Speicherkapazität und den tatsächlichen Nutzen hält sich die NSA natürlich äußerst bedeckt. Offengelegt wurden allerdings der Bebauungsplan sowie das Budget von 1,5 Milliarden US-Dollar. Der Journalist James Bamford, Autor des Buches „NSA – Die Anatomie des mächtigsten Geheimdienstes der Welt“, das in Zusammenarbeit mit der Behörde entstand, schätzt die künftige Speicherkapazität auf mehrere Yottabyte (1 Yottabyte = 1 Million Exabyte). Damit könnte das Rechenzentrum den gesamten Internetverkehr mehrerer Jahre aufzeichnen. Angaben des Netzwerkausrüsters Cisco zufolge erreicht der weltweite Datenverkehr bis zum Jahr 2015 ein Volumen von 966 Exabyte.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*