Universal-Analytics-Datenschatz sichern – so gelingt es!

Online-Marketing-Profis wissen: Daten aus der Webanalyse sind für Online-Marketer und Shopbetreiber Gold wert. Und wer wirft solch einen Schatz schon freiwillig über Bord? [...]

Foto: MudassarIqbal/Pixabay

Genau das ist es jedoch, was Ende des Jahres droht, wenn Google den Zugang zu Universal Analytics sperrt. Bereits zum 1. Juli 2023 (2024 für die Nutzer von Universal Analytics 360) wird Google die Verarbeitung neuer Daten in standardmäßigen Universal-Analytics-Properties einstellen. Und ein Datenimport in Google Analytics 4 ist nicht vorgesehen. Es gilt also, jetzt zu handeln, um den Datenschatz noch zu retten!

Wie wichtig es ist, sich bei der Webanalyse auch auf historische Daten verlassen zu können, wissen Online-Marketer und Shopbetreiber nur zu gut. Nur so können sie Trends identifizieren und Vergleiche zwischen unterschiedlichen Kampagnen ziehen. Und nur darauf aufbauend, können sie ihre Marketingmaßnahmen optimieren.

Doch beim Analytics-Wechsel alle Daten mitzunehmen und in das neuartige Datenmodell zu überführen, ist nicht möglich. Da drängt sich die Frage auf: Lassen sich die so wertvollen historischen Daten auch anderweitig retten?

Grundsätzlich gibt es drei Möglichkeiten:

  • Denkbar ist etwa, Universal-Analytics-Daten über einen manuellen Export aus dem jeweiligen Report herauszuziehen. Dies ist jedoch ein sehr mühsames Unterfangen angesichts der vielfältigen Reports und Zeiträume. 
  • Alternativ dazu ist der Export nach BigQuery, ein vollständig verwaltetes, serverloses  Data Warehouse auf der Google-Cloud-Platform-Infrastruktur, möglich. Dazu sind zusätzliche Tools wie zum Beispiel Supermetrics einsetzbar. Allerdings ist diese Option mit zusätzlichen Kosten verbunden und erfordert BigQuery-Knowhow, damit man im Anschluss die Daten auch auswerten kann. Denn BigQuery bietet zwar vielfältigste Auswertungsmöglichkeiten, diese sind aber nicht speziell auf Web-Analyse zugeschnitten. 
  • Eine dritte Option bieten wir mit etracker Analytics als neuen Web-Analyse-Dienst. Dieser gestattet es, Universal-Analytics-Daten einfach automatisiert zu importieren und sichern. Für die Auswertung der historischen Daten gibt es spezielle vorkonfigurierte Reports. So lässt sich der Datenschatz im Handumdrehen retten und jederzeit bequem auswerten. 

Die Migration im dritten Fall ist dabei denkbar einfach: Hierzu ist es lediglich erforderlich, das Analytics-Tag auszutauschen. Alle Kampagnen-Parameter werden automatisch vom neuen Webanalyse-System erkannt, sodass sich das Kampagnentracking nahtlos fortsetzen lässt. Ob Google-, Bing- oder Facebook-Ads – alle Trackingdaten laufen dann bequem in einem System zusammen.

Optional können Online-Marketer und Shopbetreiber ein solches Tool als Alternative oder in Ergänzung zu Google Analytics 4 nutzen. Denn viele Anwender von Google Analytics 4 tun sich schwer mit der neuen Lösung, deren Kinderkrankheiten und Unzulänglichkeiten sowie der ungewohnten Oberfläche und Bedienung.

Insbesondere aber geht auch mit Google Analytics 4 ein Großteil der Daten verloren und die Datenbasis ist verzerrt (Consent Bias). Denn auch der Einsatz von Google Analytics 4 ist nicht auf der rechtlichen Grundlage des berechtigten Interesses des Websitebetreibers möglich, sondern erfordert immer die vorherige Einwilligung des Websitebesuchers.

Das Problem: In der Regel willigen nur knapp 20 Prozent der Nutzer bei einer rechtskonformen Banner-Gestaltung in das Tracking ein – und das auch nicht konsequent in jeder Situation, sondern unterschiedlich je nach Kanal und Kampagnenherkunft. Dies hat zur Folge, dass die Stichprobe der Webanalyse sich nicht nur verkleinert, sondern auch verzerrt wird.

Und dann ist da auch immer noch das Problem mit dem US-Datentransfer, denn trotz Datenerfassung auf europäischen Servern ist ein Zugriff für US-Geheimdienste nicht auszuschließen. Hier drohen nicht mehr nur mahnende Briefe von Aufsichtsbehörden, es gibt mittlerweile einschlägige Urteile wie jüngst das vom Landesgericht Köln zum US-Datentransfer von Google-Tools bei der Telekom.

Nur mit Tools, die US-Geheimdiensten keinen Zugang zu den Daten gewähren, weil der Anbieter in der EU beheimatet ist, und die zugleich auch ein Cookie-loses Tracking ohne Fingerprinting ermöglichen, sind Unternehmen auf der sicheren Seite.

Dadurch haben sie sogar die Möglichkeit, unabhängig von Nutzereinwilligungen via Consent-Banner zu tracken, weil das berechtigte Interesse als Rechtsgrundlage greift. So lassen sich auch etwaige durch (Nicht-)Einwilligung entstehende Verzerrungen der Datenbasis vermeiden. 

Das ist der Weg, den eigenen Datenschatz nicht nur zu retten, sondern künftig auch rechtssicher und DGSVO-konform aufzustellen, wodurch sich dessen Wert noch steigern wird.

Online-Marketer können sich so dem schon länger über ihnen schwebenden Damokles-Schwert der Rechtsproblematik entziehen, dabei ihre Datenbasis uneingeschränkt fortführen und Kampagnen weiterhin steuern. Die Gelegenheit, die sich für Google-Analytics-Nutzer also noch bis Ende 2023 bietet, ist eine Chance, die sie nicht verstreichen lassen sollten.

Checkliste für die Datenrettung

  1. Prüfen Sie, welche Option der Universal-Analytics-Datensicherung für Sie am praktikabelsten ist: selbstständig manuell, mit Data-Extraction-Diensten wie Supermetrics oder mittels Importfunktion von Web-Analyse-Diensten wie etracker.
  2. Bei der Entscheidung für eine Importfunktion von Web-Analyse-Diensten als Datensicherung testen Sie auch die aktuelle Datenerfassung parallel zu Google Analytics 4.
  3. Wählen Sie die passende Tracking-Methode – komplett Consent-frei oder hybrid, um bei Einwilligung auch längere Besucher-Journeys erfassen zu können.
  4. Verknüpfen Sie Google Ads mit dem einwilligungsfreien Drittdienst ergänzend zu Google Analytics 4 für bestmögliches Conversion-Tracking. Eine Deduplizierung erfolgt automatisch in Google Ads, sodass der Import aus beiden Systemen problemlos möglich ist.
  5. Vergleichen Sie die Datenbasis der Analytics-Lösungen.
  6. Prüfen Sie, ob ein vollständiger Wechsel zu einem einwilligungsfreien Web-Analyse-Dienst vorteilhaft ist, um Rechtsrisiken zu vermeiden und eine einheitliche Datenbasis zu erreichen („Single Source of Truth”).

*Nachdem der Diplom-Kaufmann in verschiedenen Softwareunternehmen beschäftigt war, kam Brandt 2008 zu etracker, wo er zunächst im Business Development tätig war und später für die Produktentwicklung des Web-Analyse-Tools etracker sowie der Web-Push-Lösung Signalize verantwortlich zeichnete.

powered by www.it-daily.net


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*