Thread
Menü

Drive vs. Crowd Tests


17.01.2019 20:07 - Gestartet von wolfbln
2x geändert, zuletzt am 17.01.2019 20:13
Die einzigen zwei Testtypen, die funktionieren haben beide Schwächen. P3 versucht ja gerade die durch Integration beider Systeme auszugleichen.

Bei den Lauf- und Fahrtests hängt es sehr von der gewählten Strecke ab. Wenn man die Karte ansieht, sind das fast nur Autobahnen und Bahnhauptstrecken. Die sind besser versorgt als Nebenstraßen und Regionalbahnen. Auch wird nur durch Städte statt Dörfer gegangen und fast alle Tests sind Outdoor.

Bei den Crowdsource-basierten Tests ermittelt eine App im Hintergrund die Verfügbarkeit. In den letzten Jahren sind diese Tests immer besser geworden und bilden häufiger genauer die Realität ab. Dies bezieht sich vor allem auf die 2G/3G/4G Verfügbarkeit.

Es ist daher nicht verwunderlich, dass die Crowd-Tests durchweg schlechter ausfallen als die Drive-Tests. Insbesondere Telefonica ist dieses Jahr darin ziemlich abgestürzt.

Der Fehler in den App-Tests liegt darin begründet, dass die App vielleicht gar nicht weiß, ob man einen 4G-Vertrag, -Handy oder eine Drossel usw. hat. Da auch die max. Geschwindigkeit sehr von den CA-Eigenschaften des Geräts abhängen, wäre ich in diesen Tests mit den Mbit/s-Aussagen auch vorsichtiger.

Daher würde ich nicht so grundsätzlich wie im Bericht sagen, dass die Lauf- und Drive-Tests per se besser sind. Sie wären das nur, wenn wie dieses Jahr in Frankreich 1 Mio. Tests genommen werden in allen Regionen und Lebenslagen unter genormten Bedingungen. Dann wären sie aussagefähiger, in Deutschland sind es aber nur Stichproben, die zu einem Gesamtbild aufgeblasen werden.

Wir brauchen beides und ganz dringend - wenn immer von Auflagen für die 5G-Versteigerung gesprochen wird - mehr Tests im Umfang, genormte Testbedingungen und unabhängige Auftraggeber. Wie wollen wir denn sonst zuverlässig die Erfüllung der Auflagen verifizieren?