Gastkommentar: Wenn die Datenbank streikt

Unternehmen speichern ihre Daten in Datenbanken: In meiner EDV-Kindheit mit Hilfe von dBase oder Open Access – heute erhalten wir zur Datenrettung neben den Steinzeit-Systemen hauptsächlich moderne relationale Datenbanken wie MS SQL, Oracle oder MySQL. Datenverlust bei Datenbanken kann durch physikalische oder durch logische Ursachen auftreten. Ein physikalischer Fehler ist ein defekter Datenträger, logische Ursachen können Dateisystemfehler sein oder Fehlbedienung wie das Löschen von Datensätzen. [...]

Für eine erfolgreiche Datenrettung von Datenbanken ist tiefgreifendes Know-how der Dateisysteme notwendig: Sowohl bei Dateisystemfehler als auch dem versehentlichen Löschen ist es über spezielle Strukturen des Dateisystems (z. B. Runlists, Indirect Blocks oder Transactions-Logs) möglich, noch Zugriff auf die verlorenen Daten zu erhalten. Auch Wissen über den – oft proprietären – internen Aufbau der Datenbankdateien (zum Beispiel .mdf, .dbf., myd) ist Voraussetzung für eine erfolgreiche Datenrettung.

Der größte Aufwand bei der Datenrettung von Datenbanken liegt jedoch in den meisten Fällen bei der Verifikation bzw. Qualitätskontrolle: Gerade bei Datenbanken ist eine Überprüfung extrem wichtig: Nur eine vollständig rekonstruierte Datenbank garantiert für den Kunden einen reibungslosen Betrieb. Deshalb müssen alle Datenbanken, Tabellen, Datensätze sowie Relationen überprüft werden: Existiert jeder in der Rechnungstabelle referenzierte Kunde auch tatsächlich in der Kundentabelle? Liegen Werte von Feldern (zum Beispiel Datum, Euro-Beträge) in den zu erwartenden Bereichen? Sind fortlaufende IDs eindeutig und vollständig?

Sollte – zum Beispiel aufgrund zerstörter Bereiche innerhalb der Magnetschicht der Festplatte – eine Datenrettung nicht vollständig möglich sein, so können wir nach Bedarf des Kunden sowohl inkrementelle Datensätze seit dessen letzter Datensicherung liefern, oder auch bestimmen, in welchen Bereichen Datensätze fehlen oder fehlerhaft sind.

Unsere Erfahrung hat gezeigt, dass es gerade bei Datenbanken zu nicht vorhandenen oder fehlerhaften Datensicherungen kommt: Viele Datenbanken können nicht einfach per Kopie gesichert werden. Statt dessen müssen mit Hilfe datenbankinterner Tools sogenannte Datenbank-Dumps erstellt werden, die anschließend gesichert werden können. Auch hier ist eine regelmäßige Überprüfung der Datensicherungen empfehlenswert.

* Nicolas Ehrschwendner ist Geschäftsführer von Attingo.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*