Im Laufe der Zeit sammeln sich im Volkszähler die Daten an. Diese Seite soll Verfahren zeigen, wie man mit den Mengen umgehen kann.
Ein D0/SML-Zähler kann je nach Last mehrmals pro Sekunde die aktuelle Leistung ausgeben. Ein S0-Eingang kann mehrere Impulse pro Sekunde erzeugen. Diese Daten werden alle in der Datenbank gespeichert und benötigen Platz.
Jeder weitere Kanal benötigt zusätzlich Platz, da er seine eigenen Daten mitbringt.
Es gibt die Möglichkeit, die Anzeige im Frontend durch Aggregation von Daten zu Beschleunigen. Dabei werden Daten errechnet, die weiterhin Platz benötigen.
Zusätzlich wird eine Datenbank umso langsamer je mehr Datensätze sie beinhaltet. Dieser Effekt tut vor allem dann „weh“, wenn auch die Hardware weniger leistungsfähig ist- wie z.B. die des beliebten Raspberry Pi.
Erfahrungen zeigen, dass so innerhalb von 2 Jahren ca 180 Mio Datensätze gesammelt werden können die ca 19GB Platz benötigen.
Die Frage wie viel Daten man entfernen kann ist oft ein Kompromiss welche Daten man jetzt braucht und wie viel davon in der Zukunft noch von Interesse ist. Ein Ansatz die Aktualdaten zu haben ohne die Datenbank zu nutzen ist der Push-Server.
Wen die Vergangenheit nicht interessiert, der kann die Daten dafür löschen. Ein harter Ansatz wäre einfach alles älter als ein gewisser Zeitraum zu löschen. Mit SQL könnte dies z.B. so aussehen:
delete FROM `data` where timestamp< (unix_timestamp(current_timestamp)-24*60*60)*1000 ;
Das Beispiel löscht alle Daten die vor den letzten 24h liegen. Lässt man das Script einmal am Tag laufen so hat man lediglich die Daten der letzten Stunden.
Bei diesem Ansatz werden auch die Daten gelöscht. Die Daten werden immer mehr ausgedünnt je weiter man in die Vergangenheit geht. So behält man z.B. alle Daten von heute, behält von den letzten 2 Wochen nur eine Messung pro Minute und von der Zeit davor nur eine pro Viertelstunde. Dazu steht das Script vzcompress2 zur Verfügung. Von Haus aus hat der lokale User vz keine Rechte zum Löschen in der Datenbank, das muss man vorher ändern:
sudo mysql --user=root -praspberry Welcome to the MySQL monitor. Commands end with ; or \g. Your MySQL connection id is 37217 [..] mysql> grant select, update, insert, delete on volkszaehler.* to vz@localhost; Query OK, 0 rows affected (0.03 sec) mysql> flush privileges; Query OK, 0 rows affected (0.01 sec) mysql> exit
Dann kann das vzcompress2 Skript folgendermaßen per crontab aufgerufen werden:
0 3 * * * cd /var/www/volkszaehler.org/bin ; php vzcompress2 >> /var/log/vzcompress.log
Die Anzahl der Daten die gelöscht werden soll, sowie die Zeiträume sind frei konfigurierbar am Ende des Scriptes.
Bleiben die Daten in voller Auflösung erhalten, wird mit der Zeit die Middleware immer langsamer, da es aus den Daten die zur Anzeige benötigten suchen muss. Gerade bei großen Zoomstufen (z.B. auf ein Jahr) kann es dann notwendig werden, dass die gesamte Datenbank eingelesen werden muss. Abhilfe schafft hier die Daten ganzer Zeiträume, wie z.B. eines Tages, in einzelnen Datenpunkten zusammenzufassen (etwa Durchschnittstemperatur an diesem Tag). Dies erzeugt zwar mehr Daten in der Datenbank und benötigt somit mehr Platz auf der Festplatte. Allerdings kann auf die Daten effizienter zugegriffen werden, so dass sich unter dem Strich die Geschwindigkeit erhöht.
Die Lösung besteht aus zwei Komponenten. Die eine ist bereits im Frontend eingebaut und aktiviert sich automatisch, sobald sie passende Daten findet. Die andere besteht aus einer weiteren Tabelle mit Scripten die diese füllen.
Die folgende Zeile aggregiert alle bestehenden Daten. Der Vorgang kann daher einige Stunden benötigen:
php /var/www/volkszaehler.org/bin/aggregate run -m full -l day -l hour -l minute
Einschränken auf eine einzelne UUID mittels:
php /var/www/volkszaehler.org/bin/aggregate run <UUID> -m full -l day -l hour -l minute
Mit den folgenden Einträgen in einer crontab hält man den Cache aktuell. Erstellt wird die crontab mit: crontab -e
.
Das Script legt nur an, was noch nicht angelegt wurde und läuft daher nur kurz:
*/10 * * * * php /var/www/volkszaehler.org/bin/aggregate run -m delta -l minute >/dev/null 1 * * * * php /var/www/volkszaehler.org/bin/aggregate run -m delta -l hour >/dev/null 0 1 * * * php /var/www/volkszaehler.org/bin/aggregate run -m delta -l day >/dev/null
Hierzu werden obige Cron-Einträge ergänzt um:
flock -n /tmp/flock-vz_aggregate.lock
der Eintrag für „minute“ sieht dann so aus:
*/10 * * * * flock -n /tmp/flock-vz_aggregate.lock php /var/www/volkszaehler.org/bin/aggregate run -m delta -l minute >/dev/null
So stellt man sicher das nie mehr als höchstens 3 Aggregate-Jobs gleichzeitig (minute, hour, day) laufen.
Bei dem Einsatz von Docker funktionieren bestimmte Teile der Anleitung etwas anders. Es muss z.B. erstmal der Docker Container betreten werden. Welche ID der Dockercontainer hat findet Ihr mittels des folgenden Befehls heraus:
docker ps | grep volkszaehlerorg_volkszaehler
danach könnt ihr den docker Container betreten mittels des folgenden Befehls:
docker exec -it --user root hier-die-id-von-eben-eintragen sh
hier kann die aggregation dann mittels des leicht angepassten Befehls von oben durchgeführt werden:
php /vz/bin/aggregate run -m full -l day -l hour -l minute
Den aktuellen Zustand der Aggregation (aktiv, Anzahl der Datensätze, Ratio) kann man mit dieser Middleware-Abfrage prüfen:
http://IP-ADRESSE/middleware.php/capabilities/database.json?
Wer keine feine Auflösung der Messungen im Sekundenbereich braucht, kann die Anzahl der Messungen verringern. Dies reduziert die Datenmenge, macht den Verlauf jedoch ungenauer, da kurze Vorgänge eventuell nicht mehr erfasst werden. Die Kurven verändern sich dann in etwa so, als würde man im Frontend raus zoomen. Da die Daten auch nicht indirekt erfasst wurden, können sie auch nachträglich nicht wieder hergestellt werden.
Das Frontend interpoliert selbständig die Daten, passend zum jeweilgen Kanal.
Falls eine Messung per Script vorgenommen wird wird das Script einfach seltener aufgerufen, z.B. nur noch einmal pro Minute anstatt einmal pro Sekunde, so ist die Auflösung und Datenmenge geringer.
Der vzlogger bietet zwei Möglichkeiten die Zahl der Datensätzen zu reduzieren.
Es kann vorkommen, dass sich ein Zählerstand oder Momentanwert über längere Zeit nicht verändert. Dennoch geht vzlogger davon aus, dass jeder gleich wichtig ist und schickt ihn an die Middleware weiter was zu aufeinander folgenden Datensätzen mit identischem Wert führt. duplicates ist ein Parameter in der Kategorie channels der vzlogger.conf der diese Folgedaten reduziert.
"duplicates": 3600,
Die Zahl gibt die Zeit in Sekunden an bis der vzlogger einen gleichbleibendem Wert erstmals wieder an die Middleware sendet. Im Beispiel wären das eine Stunde. Bei Einspeisezählern von PV-Anlagen (die Nachts keine Änderung registrieren) zu empfehlen.
Für Zähler mit geringer Auflösung (z.B. 0,1kWh) wären 60s passend.
Der vzlogger bietet die Option, mehrere Messungen zu einer Messung zusammenzufassen. Der vzlogger liest dann zwar noch häufiger, bzw. nimmt die Daten häufiger an, errechnet jedoch über den Zeitraums einen Wert und gibt diesen dann an die Middleware weiter. Dies entlastet sowohl die Middleware und somit den Rechner an sich und hält auch die Datenmenge kleiner.
Die Konfiguration wird mit den Parametern „aggtime“, „aggfixedinterval“ in der Kategorie meters und „aggmode“ bei den channels vorgenommen.
"aggtime": 60, "aggfixedinterval": true, [...] "aggmode": "max",
„avg“ | Durchschnitt | zu verwenden bei Aktualwerten wie Strom, Spannung oder Temperatur |
---|---|---|
„max“ | Maximalwert | zu verwenden bei Zählerständen |
„sum“ | Summe | zu verwenden bei Impulsen (S0) |
„none“ | keine Aggreagtion vornehmen, alle Daten des channel gehen an die Middleware |
Es gibt mehrere Möglichkeiten durch Einsatz von mehr Hardware das System zu beschleunigen: * Das System hat ein n-Tier-Architektur. Dies bedeutet, dass jede einzelne Komponente (Messung, Middleware, Datenbank) beliebig auf das Netzwerk oder ins Internet verlegt werden kann. Beispiele:
Es gibt zahlreiche Möglichkeiten im Bereich der Konfiguration anzusetzen. Diese sind jedoch von den individuellen Gegebenheiten abhängig. Ein paar Anregungen: