Datenqualität in der Webanalyse: Warum Ihre Analytics-Daten lügen
Sie treffen Entscheidungen auf Basis Ihrer Analytics-Daten — aber wie verlässlich sind diese Daten wirklich? In unseren Audits erreichen nur rund 5 % der Websites mit erkanntem Analytics-Tool eine grüne Datenqualitäts-Bewertung. Die große Mehrheit hat mindestens ein Problem, das ihre Zahlen verzerrt.
Falsche Analytics-Daten sind gefährlich, weil sie richtig aussehen. Niemand bezweifelt die Zahl, die im Dashboard steht. Aber wenn Ihre Besucherzahlen systematisch zu niedrig sind, Ihre Conversion-Rate auf falschen Grundlagen berechnet wird oder Ihre Verweildauer durch technische Fehler verfälscht ist, treffen Sie Entscheidungen auf einer Grundlage, die nicht stimmt.
Die gute Nachricht: Die meisten Datenqualitätsprobleme haben bekannte Ursachen — und sind behebbar. Dieser Artikel zeigt die häufigsten Fehler, die wir in über 173.036 Audits (Stand: März 2026) sehen.
Hinweis: Die folgenden Ausführungen basieren auf unserer technischen Analyse und stellen keine Rechtsberatung dar. Für die rechtliche Bewertung Ihrer Analytics-Konfiguration konsultieren Sie bitte Ihren Datenschutzbeauftragten.
Was unsere Audits zeigen: Der Status quo
Von über 68.335 Websites mit erkanntem Analytics-Tool erreichen nur etwa 5 % eine grüne Datenqualitäts-Bewertung.
exatics prüft die Datenqualität automatisch als eigene Kategorie im Audit. Die Ergebnisse:
| Bewertung | Anteil | Bedeutung |
|---|---|---|
| Grün | 5,1 % | Gute Datenqualität — keine offensichtlichen Probleme |
| Grün-Orange | 48,1 % | Leichte Einschränkungen — Optimierungspotenzial |
| Orange | 46,8 % | Deutliche Probleme — Daten sind eingeschränkt verlässlich |
Basis: Über 68.335 Websites, bei denen ein Analytics-Tool erkannt wurde und die Datenqualität bewertet werden konnte (Stand: März 2026). Websites ohne erkanntes Analytics-Tool (rund 60 % aller Audits) sind nicht enthalten.
Das bedeutet: Selbst bei Websites, die aktiv ein Analytics-Tool einsetzen, hat die große Mehrheit messbare Probleme bei der Datenqualität. Und das sind nur die Probleme, die sich von außen erkennen lassen — interne Konfigurationsfehler kommen noch hinzu.
Die sechs häufigsten Ursachen für schlechte Datenqualität
1. Consent-Verluste: Die größte Dunkelziffer
Cookie-Banner kosten je nach Branche 30 bis 60 % Ihrer Besucherdaten. Dieser Verlust ist systembedingt und betrifft jedes Analytics-Tool, das eine Einwilligung erfordert.
Wenn Ihr Analytics-Tool nur nach Einwilligung laden darf — wie bei Google Analytics — sehen Sie nur die Besucher, die aktiv auf „Akzeptieren" klicken. Alle anderen sind unsichtbar: Besucher, die ablehnen, den Banner ignorieren oder Adblocker nutzen, die auch den Banner selbst blockieren.
Das Problem geht tiefer als nur fehlende Gesamtzahlen. Die Verzerrung ist nicht gleichmäßig: Technikaffine Besucher lehnen häufiger ab, mobile Nutzer interagieren anders mit dem Banner als Desktop-Nutzer, und bestimmte Altersgruppen haben andere Consent-Raten. Ihre verbleibenden Daten repräsentieren nicht Ihre tatsächlichen Besucher — sie repräsentieren die Besucher, die zufällig auf „Akzeptieren" geklickt haben.
Googles Consent Mode versucht, diese Lücke mit modellierten Daten zu schließen — mit fragwürdigen Ergebnissen. Consent-freie Tools wie Matomo umgehen das Problem an der Wurzel.
2. Doppeltes Tracking: Wenn jeder Seitenaufruf zweimal zählt
Zwei verschiedene Analytics-Tools parallel zu betreiben — etwa Google Analytics und Matomo — ist grundsätzlich unproblematisch. Jedes Tool zählt für sich korrekt. Problematisch wird es, wenn dasselbe Tool doppelt feuert.
Doppeltes Tracking im selben Tool entsteht auf verschiedenen Wegen:
- Tag Manager plus Standalone-Code — Der Google Tag Manager enthält bereits einen GA4-Tag, zusätzlich steht der klassische gtag.js-Code im HTML der Seite. Jeder Seitenaufruf wird zweimal an GA4 gesendet.
- Mehrere Tag-Manager-Container — Zwei GTM-Container auf derselben Seite, beide mit Analytics-Tags
- CMP löst erneutes Laden aus — Manche Cookie-Banner laden Analytics-Tags nach dem Akzeptieren erneut, obwohl sie bereits beim Seitenaufruf gefeuert haben
Das Ergebnis: Ihre Seitenaufrufe sind doppelt so hoch wie die tatsächlichen, Ihre Absprungrate tendiert gegen 0 % (weil jeder Aufruf als zwei gezählt wird), und Ihre Verweildauer-Metriken sind verfälscht.
Bei Matomo sehen wir dasselbe Muster: Klassischer _paq.push-Code und Matomo Tag Manager gleichzeitig auf der Seite — mit identischen Folgen.
3. Adblocker: Die unsichtbare Lücke
Adblocker blockieren nicht nur Werbung — sie blockieren auch Analytics. Bei technikaffinen Zielgruppen fehlen 20 bis 30 % der Daten.
Adblocker wie uBlock Origin, Ghostery und der Brave-Browser führen Filterlisten, die bekannte Tracking-Domains blockieren: google-analytics.com, googletagmanager.com, aber auch matomo und piwik in URLs. Der Brave-Browser blockiert sogar den Google Tag Manager komplett — damit sieht auch das Consent-System diese Besucher nicht.
Der Datenverlust durch Adblocker kommt zum Consent-Verlust hinzu. Wenn 40 % durch fehlenden Consent verloren gehen und weitere 20 % durch Adblocker, sehen Sie unter Umständen weniger als die Hälfte Ihrer tatsächlichen Besucher.
4. Bot-Traffic: Phantom-Besucher in Ihren Reports
Bots machen einen erheblichen Teil des Internet-Traffics aus. Nicht alle werden von Analytics-Tools erkannt — und die unerkannten verfälschen Ihre Daten.
Google Analytics filtert bekannte Bots auf Basis der IAB-Botliste. Unbekannte Bots — darunter zunehmend KI-Crawler von OpenAI, Anthropic und anderen — passieren ungehindert. Sie erzeugen Seitenaufrufe, verzerren geografische Verteilungen und verwässern Ihre Conversion-Funnels.
Dazu kommt Referral-Spam: Falsche Traffic-Quellen, die in Ihren Reports auftauchen, ohne dass ein echter Besucher Ihre Website aufgerufen hat. Diese sogenannten Ghost-Hits sind in GA4 seltener als in Universal Analytics, aber nicht vollständig eliminiert.
5. Fehlerhafte Konfiguration: Die stillen Datenkiller
Ein Tracking-Setup, das einmal eingerichtet und nie wieder geprüft wird, veraltet schnell — und jede Änderung an der Website kann es brechen.
Die häufigsten Konfigurationsfehler:
- Tracking-Code fehlt auf einzelnen Seiten — Login-Bereich, Checkout, Subdomain oder neu erstellte Landingpages ohne Analytics
- Events falsch konfiguriert — Fehlende Parameter bei Conversion-Events (kein Warenwert beim Purchase-Event), falsche Trigger, inkonsistente Event-Benennung
- Interner Traffic nicht ausgeschlossen — Eigene Mitarbeiter werden als Besucher gezählt
- Cross-Domain-Tracking fehlt — Besucher, die zwischen Hauptdomain und Shop-Subdomain wechseln, werden als zwei separate Besuche gezählt
- Self-Referrals — Die eigene Domain taucht als Traffic-Quelle auf, weil die Referral-Ausschlussliste nicht gepflegt ist
CMS-Updates, Plugin-Änderungen und Website-Relaunches brechen regelmäßig bestehende Tracking-Konfigurationen. Ohne aktives Monitoring fallen diese Fehler erst Wochen oder Monate später auf — wenn überhaupt.
6. IP-Anonymisierung zu aggressiv: Besucher aus verschiedenen Ländern werden zusammengelegt
Eine zu starke IP-Maskierung verbessert nicht den Datenschutz — sie zerstört die Besuchererkennung.
Dieses Problem betrifft vor allem Matomo-Installationen. Bei einer 2-Byte-IP-Maskierung in Kombination mit der Einstellung „Maskierte IP für Besuchsaufbereitung verwenden" kann ein Pool von über 65.000 IP-Adressen entstehen. Besucher aus verschiedenen Kontinenten werden als derselbe Besucher gezählt, die Geo-Lokalisierung ist unbrauchbar.
Die Details und die besseren Alternativen beschreiben wir in unserem Ratgeber: Matomo datenschutzkonform einsetzen.
Wie exatics die Datenqualität prüft
exatics bewertet die Datenqualität als eigene Kategorie im Audit — automatisch und von außen.
Was wir erkennen können:
- Doppeltes Tracking — Mehrfache Einbindung desselben Analytics-Tools (z. B. gtag.js + GTM mit GA4-Tag)
- Tag Manager plus Standalone-Code — Klassischer Tracking-Code neben dem Tag-Manager-Container
- Consent-Integration — Wird das Analytics-Tool vom Cookie-Banner gesteuert, oder lädt es unabhängig?
- Cookie-Konfiguration — Werden Analytics-Cookies gesetzt, obwohl cookieloses Tracking konfiguriert sein sollte?
- Veraltete Tracking-Versionen — Noch Universal Analytics statt GA4, veraltete Matomo-Snippets
Was wir von außen nicht sehen können: interne GA4-Konfiguration, Event-Parameter, Filter, Conversion-Setup. Für diese tiefere Analyse empfehlen wir spezialisierte Analytics-Auditoren wie Markus Baersch.
Checkliste: Datenqualität in der Webanalyse
- Kein doppeltes Tracking? Pro Tool nur eine Tracking-Methode — nicht Tag Manager und Standalone-Code gleichzeitig
- Consent-Integration geprüft? Analytics darf nur laden, wenn das Consent-System es erlaubt (oder wenn consent-frei konfiguriert)
- Adblocker-Verluste minimiert? Neutrale Tracking-URLs ohne Begriffe wie „analytics" oder „matomo"
- Bot-Traffic gefiltert? Bekannte Bots ausschließen, ungewöhnliche Traffic-Spitzen prüfen
- Interner Traffic ausgeschlossen? Eigene IP-Adressen und Mitarbeiter-Geräte herausfiltern
- Cross-Domain-Tracking konfiguriert? Bei mehreren Domains oder Subdomains
- Tracking regelmäßig geprüft? Nach jedem CMS-Update, Plugin-Wechsel und Relaunch
- Verweildauer korrekt gemessen? HeartBeatTimer (Matomo) oder vergleichbare Lösung aktiviert