Wie logisches Datenmanagement das ESG-Reporting vereinfacht

Mit zunehmendem Bewusstsein für Nachhaltigkeitsthemen wächst auch der Druck, den Stakeholder diesbezüglich auf Unternehmen ausüben. Gerade auf Seiten der Gesetzesgeber entstehen vermehrt Richtlinien, die „ESG“ (Enviornmental, Social und Governance)-Anliegen vorantreiben und Unternehmen zu mehr Transparenz in Form von entsprechender Berichterstattung verpflichten. [...]

Otto Neuer, Regional VP und General Manager bei Denodo. (c) Denodo
Otto Neuer, Regional VP und General Manager bei Denodo. (c) Denodo

Seit Januar 2023 ist die neue Corporate Sustainability Reporting Directive (CSRD) der Europäischen Union in Kraft getreten. Die Regelung verpflichtet Unternehmen zu Nachhaltigkeitsreportings und legt dabei eine ganzheitliche Sichtweise an den Tag. Unternehmen müssen nicht nur über sämtliche ESG-relevante Auswirkungen ihrer Lieferkette berichten, sondern auch glaubwürdige ESG-Ziele definieren und ihre Fortschritte dokumentieren. Damit verfolgt die EU das Ziel, Nachhaltigkeits-berichterstattungen zu verbessern und zu standardisieren. Seit Juli dieses Jahr unterliegen bereits einige Unternehmen der neuen Regelung, in den kommenden Jahren werden sukzessive mehr Betriebe in die Pflicht genommen, wie auch Kleine und Mittlere Unternehmen (KMUs), die sich am Kapitalmarkt orientieren. Das Erstellen von aussagekräftigen Reportings stellt jedoch viele von ihnen vor Herausforderungen, die vor allem auf ihr Datenmanagement zurückzuführen sind.

Kein Durchblick im Datendschungel

Als Grundlage für Reportings aller Art dienen Daten. Daher müssen Unternehmen alle relevanten Daten identifizieren, zusammentragen und analysieren, um sie in Berichten aufbereiten und entsprechende Erkenntnisse ziehen zu können. Viele Unternehmen stellt das jedoch bereits vor eine Herausforderung, da ihre Datenmanagementsysteme aufgesetzt wurden, bevor Nachhaltigkeit in den Fokus gerückt ist. Relevante Daten werden dementsprechend häufig gar nicht erst erfasst oder bleiben in Datensilos versteckt. Dies gilt zumeist auch, wenn Organisationen bereits moderne Data Lakehouse Systeme im Einsatz haben, etwa aufgrund gesetzlicher Regelungen oder Multi-Cloud Architekturen. Das passiert, wenn Daten an unterschiedlichen Stellen im Unternehmen erhoben und gespeichert werden, die Speicherorte aber nicht zusammengetragen werden. In diesen Fällen wissen zuständige Mitarbeitende unter Umständen gar nicht, welche Daten ihnen zur Verfügung stehen könnten.

Das kann erhebliche Folgen für das Unternehmen und den Erfolg ihrer Nachhaltigkeitsmaßnahmen haben. Fehlt der Überblick über relevante – finanzielle wie nicht-finanzielle – Daten, schränkt das die Wirksamkeit von ESG-Initiativen ein. Da Aufwand, Fortschritt und Effektivität nicht bemessen werden, haben Unternehmen ohne entsprechende Werte keinen Anhaltspunkt, um ihre Projekte anzupassen und optimieren zu können. Außerdem bleibt die Erkenntnis darüber aus, an welchen Stellen im Unternehmen das Potenzial für weitere Initiativen steckt. Um Klarheit zu schaffen, müssen Unternehmen zuverlässig Nachhaltigkeitsdaten sammeln und die verschiedenen anfallenden Datenquellen und -formate effizient miteinander verbinden.

Logische Datenschicht und Datenvirtualisierung sind die Lösung

In einem ersten Schritt müssen Unternehmen identifizieren, welche Daten sie tatsächlich benötigen und abklären, ob sie diese bereits sammeln. Dabei sollten sowohl interne Datenquellen als auch externe Angaben etwa von Partnern oder Drittanbietern berücksichtigt werden. In einem zweiten Schritt werden die Daten anschließend in einem Single Source of Truth (SSoT) zusammengeführt. Dafür eignet sich eine dezentrale Vorgehensweise und der Einsatz von Datenvirtualisierung. So werden alle Daten unabhängig von Quelle und Format in Echtzeit in einer virtuellen oder „logischen“ Schicht integriert und vereinheitlicht. Anschließend können Nutzer über eine Plattform als Self-Service darauf zu zugreifen. Sie profitieren von einer intuitiven Benutzeroberfläche, die selbst technisch weniger versierten Nutzern einen schnellen und unkomplizierten Zugriff auf relevanten Daten ermöglicht. Zudem können sie durch Plattformen für logisches Datenmanagement finanzielle und nicht-finanzielle Daten aus unterschiedlichen Quellen kombinieren, um neben den ökologischen auch die finanziellen Auswirkungen ihres Energieverbrauchs, beispielsweise, zu erfassen und nachzuvollziehen.

Dieser Ansatz bietet zusätzlich den Vorteil, dass alle Daten an ihrem ursprünglichen Speicherort verbleiben. Anders als bei Methoden, die eine Kopie der Daten voraussetzen, bleibt hier die ursprüngliche Datenqualität erhalten. Außerdem stehen den Mitarbeitern dadurch Daten immer in aktueller Form zur Verfügung und bieten eine zuverlässige Informationsquelle. Unternehmen können individuelle Regeln für ihre Data Governance definieren, um sicherzustellen, dass ihre Nachhaltigkeitsdaten vertrauenswürdig und verlässlich sind. Das ist entscheidend, um auf ihrer Basis fundierte Entscheidungen zu treffen, aber auch notwendig, um überhaupt eine Self-Service-Datenkultur einführen zu können. Hierzu bietet sich die logische Data Fabric an, da in dieser Security- und Berechtigungskonzepte an zentraler Stelle einfach und hocheffizient mit einem Tag-basierten Rollenkonzept implementiert werden können. Der Ansatz des logischen Datenmanagements bietet Unternehmen, die zunehmend größer und gleichzeitig an Datenkomplexität gewinnen, außerdem die notwendige Skalierbarkeit, um große Datenmengen effizient zu managen. Gerade für Unternehmen, die über mehrere Regionen und Rechtssysteme hinaus berichten müssen, ist dies entscheidend. Mit diesem Ansatz sind sie bestens ausgerüstet, um ihren Reporting-Pflichten im Rahmen der CSRD nachzukommen und ihre Nachhaltigkeits-Projekte voranzutreiben.

*Otto Neuer ist Regional VP und General Manager bei Denodo.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*