Datenqualität in der Webanalyse: Warum Ihre Analytics-Daten lügen

Sie treffen Entscheidungen auf Basis Ihrer Analytics-Daten — aber wie verlässlich sind diese Daten wirklich? In unseren Audits erreichen nur rund 5 % der Websites mit erkanntem Analytics-Tool eine grüne Datenqualitäts-Bewertung. Die große Mehrheit hat mindestens ein Problem, das ihre Zahlen verzerrt.

Falsche Analytics-Daten sind gefährlich, weil sie richtig aussehen. Niemand bezweifelt die Zahl, die im Dashboard steht. Aber wenn Ihre Besucherzahlen systematisch zu niedrig sind, Ihre Conversion-Rate auf falschen Grundlagen berechnet wird oder Ihre Verweildauer durch technische Fehler verfälscht ist, treffen Sie Entscheidungen auf einer Grundlage, die nicht stimmt.

Die gute Nachricht: Die meisten Datenqualitätsprobleme haben bekannte Ursachen — und sind behebbar. Dieser Artikel zeigt die häufigsten Fehler, die wir in über 173.036 Audits (Stand: März 2026) sehen.

Hinweis: Die folgenden Ausführungen basieren auf unserer technischen Analyse und stellen keine Rechtsberatung dar. Für die rechtliche Bewertung Ihrer Analytics-Konfiguration konsultieren Sie bitte Ihren Datenschutzbeauftragten.

Was unsere Audits zeigen: Der Status quo

Von über 68.335 Websites mit erkanntem Analytics-Tool erreichen nur etwa 5 % eine grüne Datenqualitäts-Bewertung.

exatics prüft die Datenqualität automatisch als eigene Kategorie im Audit. Die Ergebnisse:

BewertungAnteilBedeutung
Grün5,1 %Gute Datenqualität — keine offensichtlichen Probleme
Grün-Orange48,1 %Leichte Einschränkungen — Optimierungspotenzial
Orange46,8 %Deutliche Probleme — Daten sind eingeschränkt verlässlich

Basis: Über 68.335 Websites, bei denen ein Analytics-Tool erkannt wurde und die Datenqualität bewertet werden konnte (Stand: März 2026). Websites ohne erkanntes Analytics-Tool (rund 60 % aller Audits) sind nicht enthalten.

Das bedeutet: Selbst bei Websites, die aktiv ein Analytics-Tool einsetzen, hat die große Mehrheit messbare Probleme bei der Datenqualität. Und das sind nur die Probleme, die sich von außen erkennen lassen — interne Konfigurationsfehler kommen noch hinzu.

Die sechs häufigsten Ursachen für schlechte Datenqualität

1. Consent-Verluste: Die größte Dunkelziffer

Cookie-Banner kosten je nach Branche 30 bis 60 % Ihrer Besucherdaten. Dieser Verlust ist systembedingt und betrifft jedes Analytics-Tool, das eine Einwilligung erfordert.

Wenn Ihr Analytics-Tool nur nach Einwilligung laden darf — wie bei Google Analytics — sehen Sie nur die Besucher, die aktiv auf „Akzeptieren" klicken. Alle anderen sind unsichtbar: Besucher, die ablehnen, den Banner ignorieren oder Adblocker nutzen, die auch den Banner selbst blockieren.

Das Problem geht tiefer als nur fehlende Gesamtzahlen. Die Verzerrung ist nicht gleichmäßig: Technikaffine Besucher lehnen häufiger ab, mobile Nutzer interagieren anders mit dem Banner als Desktop-Nutzer, und bestimmte Altersgruppen haben andere Consent-Raten. Ihre verbleibenden Daten repräsentieren nicht Ihre tatsächlichen Besucher — sie repräsentieren die Besucher, die zufällig auf „Akzeptieren" geklickt haben.

Googles Consent Mode versucht, diese Lücke mit modellierten Daten zu schließen — mit fragwürdigen Ergebnissen. Consent-freie Tools wie Matomo umgehen das Problem an der Wurzel.

2. Doppeltes Tracking: Wenn jeder Seitenaufruf zweimal zählt

Zwei verschiedene Analytics-Tools parallel zu betreiben — etwa Google Analytics und Matomo — ist grundsätzlich unproblematisch. Jedes Tool zählt für sich korrekt. Problematisch wird es, wenn dasselbe Tool doppelt feuert.

Doppeltes Tracking im selben Tool entsteht auf verschiedenen Wegen:

Das Ergebnis: Ihre Seitenaufrufe sind doppelt so hoch wie die tatsächlichen, Ihre Absprungrate tendiert gegen 0 % (weil jeder Aufruf als zwei gezählt wird), und Ihre Verweildauer-Metriken sind verfälscht.

Bei Matomo sehen wir dasselbe Muster: Klassischer _paq.push-Code und Matomo Tag Manager gleichzeitig auf der Seite — mit identischen Folgen.

3. Adblocker: Die unsichtbare Lücke

Adblocker blockieren nicht nur Werbung — sie blockieren auch Analytics. Bei technikaffinen Zielgruppen fehlen 20 bis 30 % der Daten.

Adblocker wie uBlock Origin, Ghostery und der Brave-Browser führen Filterlisten, die bekannte Tracking-Domains blockieren: google-analytics.com, googletagmanager.com, aber auch matomo und piwik in URLs. Der Brave-Browser blockiert sogar den Google Tag Manager komplett — damit sieht auch das Consent-System diese Besucher nicht.

Der Datenverlust durch Adblocker kommt zum Consent-Verlust hinzu. Wenn 40 % durch fehlenden Consent verloren gehen und weitere 20 % durch Adblocker, sehen Sie unter Umständen weniger als die Hälfte Ihrer tatsächlichen Besucher.

4. Bot-Traffic: Phantom-Besucher in Ihren Reports

Bots machen einen erheblichen Teil des Internet-Traffics aus. Nicht alle werden von Analytics-Tools erkannt — und die unerkannten verfälschen Ihre Daten.

Google Analytics filtert bekannte Bots auf Basis der IAB-Botliste. Unbekannte Bots — darunter zunehmend KI-Crawler von OpenAI, Anthropic und anderen — passieren ungehindert. Sie erzeugen Seitenaufrufe, verzerren geografische Verteilungen und verwässern Ihre Conversion-Funnels.

Dazu kommt Referral-Spam: Falsche Traffic-Quellen, die in Ihren Reports auftauchen, ohne dass ein echter Besucher Ihre Website aufgerufen hat. Diese sogenannten Ghost-Hits sind in GA4 seltener als in Universal Analytics, aber nicht vollständig eliminiert.

5. Fehlerhafte Konfiguration: Die stillen Datenkiller

Ein Tracking-Setup, das einmal eingerichtet und nie wieder geprüft wird, veraltet schnell — und jede Änderung an der Website kann es brechen.

Die häufigsten Konfigurationsfehler:

CMS-Updates, Plugin-Änderungen und Website-Relaunches brechen regelmäßig bestehende Tracking-Konfigurationen. Ohne aktives Monitoring fallen diese Fehler erst Wochen oder Monate später auf — wenn überhaupt.

6. IP-Anonymisierung zu aggressiv: Besucher aus verschiedenen Ländern werden zusammengelegt

Eine zu starke IP-Maskierung verbessert nicht den Datenschutz — sie zerstört die Besuchererkennung.

Dieses Problem betrifft vor allem Matomo-Installationen. Bei einer 2-Byte-IP-Maskierung in Kombination mit der Einstellung „Maskierte IP für Besuchsaufbereitung verwenden" kann ein Pool von über 65.000 IP-Adressen entstehen. Besucher aus verschiedenen Kontinenten werden als derselbe Besucher gezählt, die Geo-Lokalisierung ist unbrauchbar.

Die Details und die besseren Alternativen beschreiben wir in unserem Ratgeber: Matomo datenschutzkonform einsetzen.

Wie exatics die Datenqualität prüft

exatics bewertet die Datenqualität als eigene Kategorie im Audit — automatisch und von außen.

Was wir erkennen können:

Was wir von außen nicht sehen können: interne GA4-Konfiguration, Event-Parameter, Filter, Conversion-Setup. Für diese tiefere Analyse empfehlen wir spezialisierte Analytics-Auditoren wie Markus Baersch.

Checkliste: Datenqualität in der Webanalyse

Weiterführende Artikel

Jetzt Ihre Datenqualität prüfen