Risiken & Schwächen: Verschlüsselung in der Zukunft – Was ist wirklich sicher?

Was heute sicher erscheint, ist womöglich bald schon wieder geknackt. Quantencomputer und Co. machen es selbst den besten Algorithmen nicht leicht. Aktuell warnen Kryptologen davor, dass mit RSA einer der Grundpfeiler der verschlüsselten Kommunikation ins Wanken gerät. So sieht die Zukunft aus. [...]

Kryptologie, die Wissenschaft von der Ver- und Entschlüsselung, hat seit den ersten Geheimschriften der altägyptischen Zivilisation enorme Fortschritte gemacht. Paradoxerweise ist der Fortschritt jedoch gleichzeitig der größte Feind der Verschlüsselung: Durch schnellere PCs und neue mathematische Erkenntnisse werden sicher geglaubte Verschlüsselungsmethoden immer wieder ausgehebelt. Aktuell warnen Kryptologen davor, dass mit RSA einer der Grundpfeiler der verschlüsselten Kommunikation ins Wanken gerät. Für die sichere Datenübertragung suchen sie nach dem unknackbaren Algorithmus der Zukunft.
WETTLAUF GEGEN STEIGENDE RECHENLEISTUNG
Kryptologie hat sich seit den 70er Jahren zu einer akademischen Disziplin entwickelt, die heute ohne große Geheimniskrämerei an vielen Universitäten gelehrt wird. Zum Entwickeln und Knacken von Verschlüsselungstechniken stehen heute Superrechner mit mehreren Petaflop (Floating Point Operations Per Second) zur Verfügung. Im Vergleich: Ein aktueller Core i7 mit vier Kernen leistet 0,0001 Petaflop. Eines der ersten Opfer der steigenden Rechenleistung war 1998 der 20 Jahre zuvor erfundene Data Encryption Standard (DES). Die Länge des Schlüssels beträgt bei diesem Algorithmus nur 56 Bit. Für moderne Superrechner ist das nurmehr eine kleine Herausforderung. Aktuelle symmetrische Algorithmen wie AES müssen mit mindestens 128 Bit arbeiten. Die Anzahl möglicher Schlüssel beträgt hier 3,4 x 10^38. Ein Supercomputer, der zum Brechen von DES durch das Ausprobieren sämtlicher Schlüssel nur eine Sekunde benötigt, ist bei AES 149 Billionen Jahre beschäftigt. Public-Key-Verfahren brauchen längere Schlüssel und die empfohlene Länge liegt bei 2048 Bit.
KRYPTOANALYSE MIT BIG DATA
Der Begriff Big Data beschreibt gigantische Datenmengen, die sich wegen ihrer Größe nicht mehr in herkömmlichen Datenbanken speichern lassen. Dem Thema ist in diesem Dossier der Artikel „Big Data“ gewidmet. Lineare und differentielle Kryptoanalyse setzen große Datenmengen voraus. Bei der linearen Analyse werden Zusammenhänge zwischen Klartext und Schlüsseln untersucht. Die differentielle Analyse basiert auf der Untersuchung ähnlicher Klartexte und den Unterschieden in den dazugehörigen Geheimtexten. Analyseverfahren mit sehr großen Datenmengen könnten Schwachstellen in bisher sicher geglaubten Algorithmen finden – vorausgesetzt, genügend Rechenleistung steht zur Verfügung. Ein dazu geeignetes Rechenzentrum entsteht zurzeit in der Wüste von Utah im Auftrag der National Security Agency (NSA), jener legendären berüchtigten US-Behörde, die für die Überwachung, Entschlüsselung und Auswertung elektronischer Kommunikation zuständig ist.
Das Utah Data Center soll Schätzungen zufolge einen Supercomputer auf rund 8000 Quadratmetern sowie Speichermöglichkeiten auf 275 000 Quadratmetern beherbergen. Gewählt wurde der abgelegene Platz in Utah, da der US-Bundesstaat über genügend Reserven zur Energieversorgung verfügt. In Ford Meade, dem Hauptsitz der NSA in Maryland, ist die Stromversorgung bereits an ihrem Limit angekommen. Über die Rechenleistung, Speicherkapazität und den tatsächlichen Nutzen hält sich die NSA natürlich äußerst bedeckt. Offengelegt wurden allerdings der Bebauungsplan sowie das Budget von 1,5 Milliarden US-Dollar. Der Journalist James Bamford, Autor des Buches „NSA – Die Anatomie des mächtigsten Geheimdienstes der Welt“, das in Zusammenarbeit mit der Behörde entstand, schätzt die künftige Speicherkapazität auf mehrere Yottabyte (1 Yottabyte = 1 Million Exabyte). Damit könnte das Rechenzentrum den gesamten Internetverkehr mehrerer Jahre aufzeichnen. Angaben des Netzwerkausrüsters Cisco zufolge erreicht der weltweite Datenverkehr bis zum Jahr 2015 ein Volumen von 966 Exabyte.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*