Oberli Engineering GmbH  Software-Entwicklung
   

Über die Aussagekraft von Webstatistiken

Bei der Interpretation von Webstatistiken ist Vorsicht geboten. Die in den Statistiken angezeigten Werte, z.B. für die Anzahl der Seitenzugriffe, sind normalerweise um Faktoren höher als die effektive Anzahl Zugriffe menschlicher Benutzer. Die meisten Statistiken zeichnen deshalb ein zu positives Bild. Das kann zur falschen Interpretation der Statistiken und als Folge zu u.U. fatalen Fehlentscheidungen führen.
Folgende Punkte führen zu den Verfälschungen:
  • Unbekannte (Suchmaschinen-)Bots
    Praktisch täglich tauchen neue (Suchmaschinen-)Bots auf, welche Websiten nach irgend welchen Informationen durchsuchen. Wenn diese neuen Suchmaschinen im Statistik-Tool nicht nachgeführt werden, werden die Zugriffe dieser Bots den menschlichen Benutzern zugeschrieben.
         
  • Verdeckt operierende (Suchmaschinen-)Bots 1
    Immer häufiger arbeiten (Suchmaschinen-)Bots verdeckt. Diese Bots halten sich nicht an die Spielregeln des Internets. D.h. sie geben sich nicht als solche zu erkennen. Diese Bots sind für eine Statistik-Software nur schwer erkennbar und dürften deshalb von den Statistik-Tools mehrheitlich den echten (menschlichen) Benutzern zugeordnet werden.
     
  • Verdeckt operierende (Suchmaschinen-)Bots 2
    Die Bots der grossen Suchmaschinen wie Google, Bing, etc. halten sich an die Spielregeln. D.h. für eine Websoftware ist erkennbar, ob es sich bei einem Besucher einer Homepage um einen Suchmaschinen-Bot (Crawler) von Google oder Bing handelt. Diesen Umstand haben Menschen ausgenutzt, um den Suchmaschinen-Bots etwas vorzugaukeln, was nicht dem entspricht, was dem normalen Benutzer angezeigt wird (Ziel: Suchmaschinenoptimierung). Aus diesem Grund müssen die grossen Suchmaschinen heute verdeckte Bots/Crawler einsetzen, um solche Betrugsfälle aufzudecken. Die Zugriffe dieser Bots/Crawler sind für eine normale Webstatistik-Software nur schwer erkennbar.
     
  • Verdeckt operierende Bots 3
    Täglich werden unsere Websites von Bots angegriffen, welche in böser Absicht unterwegs sind. Es wird u.a. gesucht nach:
    - Schwachstellen in der Websoftware
    - Logdateien
    - DB-Backups
    - Login-Informationen
    - Persönliche Informationen
    Es wird u.a. versucht:
    - Mittels SQL-Injection Daten in die Datenbank der Website einzuschleusen. Z.B. Links mit dem Ziel der Suchmaschinenoptimierung.
    - Zugang zu Personen-, Kreditkarten- und anderen Daten zu erlangen.
    Diese kriminellen Bots arbeiten oft über immer wechselnde IP-Adressen und sind für die Webstatistik-Tools nur schwer erkennbar. Da die Angriffsmuster zudem immer ändern, müsste die Statistik-Software praktisch täglich oder wöchentlich angepasst werden.
     
  • Durch Administrator der Website verursachte Zugriffe
    In der Statistik mitgezählt werden auch die Zugriffe, welche durch die Administration der Website entstehen. Z.B. einpflegen von Daten via. Webinterface, Analyse der Statistiken via Web-Interface, etc.
     
  • Smartphones 1
    Je nach Einstellung (ev. Fabrikat und Modell) rufen Smartphones jede Seite 2x auf. Diese doppelten Aufrufe dürften von den meisten Webstatistiken doppelt gezählt werden.
     
  • Smartphones 2
    Je nach Einstellung (ev. Fabrikat und Modell) rufen Smartphones die zuletzt geladene Seite bei (ev. fast) jeder Aktivierung des Smartphones wieder auf. Das wenn ein Browser-Fenster nach dem Besuch einer Website nicht geschlossen wird. Pro Tag werden so x Zugriffe generiert, welche auf dem Smartphone im Hintergrund ablaufen, in der Statistik aber trotzdem mitgezählt werden.
Stand heute sind wir überzeugt, dass eine aussagekräftige Webstatistik nur mit einem Tool erstellt werden kann, welches auf die Eigenheit und das Einsatzgebiet einer oder einer Gruppe von Websites zugeschnitten ist und regelmässig aktualisiert wird.