„Offshore-Leaks“: Big Data in Aktion

Das "größte Datenleck der Geschichte" hat einige, die ihr Vermögen in vermeintlich ruhigen Steueroasen geparkt haben, nervös gemacht. Wie man in einem 260 Gigabyte großen Datenberg – unstrukturiertes Material inklusive – die "smoking guns" findet. [...]

Die sogenannten Offshore-Leaks haben nicht nur die Welt der Schönen und Reichen durcheinandergewirbelt – das globale Netzwerk der Steueroasen wird derzeit mit viel Aufmerksamkeit gewürdigt. Mit der Zusendung der geheimnisvollen Festplatte an das „Internationale Konsortium investigativer Journalisten“ (ICIJ) vor etwa einem Jahr hat auch ein neues Zeitalter redaktioneller Recherche begonnen: Die 260 Gigabyte Daten, darunter über zwei Millionen E-Mails und Bilder, schlugen in den beteiligten Redaktionen des Konsortiums wie eine Bombe ein und degradierten die klassischen Such- und Analysemethoden der Journalistenwelt in Handumdrehen zu Klatschspielen an einem Kindergeburtstag. Big Data verlangt nach Größerem.
 
Freundlicherweise setzten die mit der Analyse der Datenberge betrauten Journalisten von Anfang an auf Transparenz und beschrieben schnell nach der Präsentation der ersten Ergebnisse im Detail, wie man sich an die 260 Gigabyte an geheimen Daten herangetastet hatte, darunter Sebastian Mondial aus Deutschland und der Brite Duncan Campbell in seinem Artikel „How ICIJ’s Project Team Analyzed the Offshore Files“.

Campbells Informationen zufolge enthält besagte Festplatte vier prall gefüllte Datenbanken, dazu 500.000 Text- und PDF-Dokumente, Tabellen, Bilder und Webfiles. Ein gewaltiger Berg an unstrukturierten Daten mit unzähligen Dubletten.

Bevor das Team an die Analyse gehen konnte, mussten erst zehntausende Dokumente, die als Bilddateien vorlagen, aufbereitet werden. Dazu gehörten etwa Kopien von Reisepässen oder Verträgen. Diese hat man mit einem OCR-fähigen System eingescannt, um Namen und Zahlen dem Recherchepool hinzuzufügen.

Dieser enthält nun so viele Daten, dass auch die Lebenszeit eines großen Mitarbeiterstabes nicht ausgereicht hätte, sie auszuwerten. Damit ist man inmitten der Welt von E-Discovery. „Sie müssen sich das wie einen Filterprozess vorstellen, bei dem die Software bestimmte Begriffe im Kontext sucht und nur die Dokumente zur Prüfung vorschlägt, die das gesuchte Muster zeigen“, erklärt Dokumentenanalyse-Fachmann Hartwig Laute von Recommind gegenüber der COMPUTERWELT. „Die Zeitersparnis bei Software-gestützter Dokumentensichtung ist enorm. Schon kleine Stichproben reichen, um in kurzer Zeit aus Millionen von Dokumenten die vielleicht 10.000 entscheidenden Dateien zu finden.“ Das ICIJ setzte die Programme NUIX und dtSearch ein, um am Ende des Tunnels überhaupt ein Licht zu erkennen.

Ein britischer Programmierer hat zudem unter dem Namen Interdata innerhalb von zwei Wochen ein System auf die Beine gestellt, damit die schnell wachsende Projektgruppe rasch an die relevanten Dokumente kommen konnte. Laut Duncan Campbell haben die beteiligten Journalisten über die interne Lösung bis Anfang April 28.000 Suchanfragen abgeschickt und 53.000 Dokumente heruntergeladen.

Trotz der potenten Hilfe in Sachen Big-Data-Analyse war das Frustrationslevel der Journalisten hoch – kein Wunder, denn die für die Firmengeflechte Verantwortlichen haben alles unternommen, ihre Spuren zu verwischen. (su)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*