Vielleicht sollte man statt der durchschnittlichen Belegung die Zeit messen, in der an einer Station alle Lader belegt sind. Das gilt es ja zu vermeiden, schließlich ist der Anspruch, dass man zu jeder Zeit an einem Lader laden kann.
Bei Internetleitungen schaut man auch nicht auf die mittlere Datenrate, und versucht daran abzuleiten, ob die Übertragungsrate ausreichend ist.
Für Netzbetreiber ist es ok, da gleichen sich ja die Schwankungen aus, und ‘überbelegungen’ sind die Norm.
Aber wenn ein Endnutzer unregelmäßig große Dateien herunterlädt, braucht er eben eine große Leitung, und Nicht eine kleine, die Datei soll ja schnell da sein, und Nicht erst kurz bevor die nächste dran ist.
Das ist eine sehr alte monitoring-weisheit: Der Durchschnitt lügt. Durchschnitte treffen nur in sehr spezifischen situationen eine sinnvolle Aussage über eine Systemzustand. Es ist z.B. einfach eine Webanwendung zu konstruieren, die im Durchschnitt eine ordentliche Response-Time hat- 50ms oder was man auch immer will. Es muss nur jede erste Anfrage in 10ms beantwortet werden und jede 2. in 2*target - 10ms und dann passt das schon. Ist durchschnittlich gut, aber komplett ungrossartig zu benutzen.
Quantile und Histogramme sind die Antwort, wie du schon sagst. Man sollte vielmehr erfassen ob an einem Zeitpunkt 1, 2, 4, 8, 16, … Charger an einem Parkplatz frei sind.
Vielleicht sollte man statt der durchschnittlichen Belegung die Zeit messen, in der an einer Station alle Lader belegt sind. Das gilt es ja zu vermeiden, schließlich ist der Anspruch, dass man zu jeder Zeit an einem Lader laden kann.
Bei Internetleitungen schaut man auch nicht auf die mittlere Datenrate, und versucht daran abzuleiten, ob die Übertragungsrate ausreichend ist.
Die Internetanbieter sind irritiert, dass du ihre Vorgehensweise hier als unzureichend bezeichnest.
Für Netzbetreiber ist es ok, da gleichen sich ja die Schwankungen aus, und ‘überbelegungen’ sind die Norm.
Aber wenn ein Endnutzer unregelmäßig große Dateien herunterlädt, braucht er eben eine große Leitung, und Nicht eine kleine, die Datei soll ja schnell da sein, und Nicht erst kurz bevor die nächste dran ist.
Das ist eine sehr alte monitoring-weisheit: Der Durchschnitt lügt. Durchschnitte treffen nur in sehr spezifischen situationen eine sinnvolle Aussage über eine Systemzustand. Es ist z.B. einfach eine Webanwendung zu konstruieren, die im Durchschnitt eine ordentliche Response-Time hat- 50ms oder was man auch immer will. Es muss nur jede erste Anfrage in 10ms beantwortet werden und jede 2. in 2*target - 10ms und dann passt das schon. Ist durchschnittlich gut, aber komplett ungrossartig zu benutzen.
Quantile und Histogramme sind die Antwort, wie du schon sagst. Man sollte vielmehr erfassen ob an einem Zeitpunkt 1, 2, 4, 8, 16, … Charger an einem Parkplatz frei sind.