Having also problems with v1.104.5. The Bandwith is not showing correcly per node and the sum of I/O is making spikes:
Here the sum of I/O:
Do you think this can be solved?
Having also problems with v1.104.5. The Bandwith is not showing correcly per node and the sum of I/O is making spikes:
Here the sum of I/O:
Do you think this can be solved?
These spikes are known to be caused by the latest update to v1.104.5.
The latest update introduced a feature which is bandwidth db caching. Because the storagenode API does not yet refer to the cache to get the latest values for the bandwidth, it means that it only gets an update whenever the cache is flushed to disk, which are those spikes you see.
In addition, as with v1.104.5 only the orders are monitored and not the actual data, keep in mind that the values you will see are only the maximum data you could have uploaded/downloaded if you won all the races. In reality the actual upload/download will be lower than the reported one.
As far as I know, with the current API, there is nothing that the storj exporter can do to resolve these issues (maybe there are different endpoints that could be used?), so its a matter of future updates hopefully fixing the API to refer to cache instead. Not sure what can be done (using the API) to get accurate data unless something is changes in the storagenode software.
I always have an error about my „Node“-Variable:
The variable is defined like this:
Someone has experience with this error?
Thx
Das Grafana Dashboard geht nicht mehr mit der Neue Grafana version. Hat einer von euch ein anderes? (Storj-Exporter-Boom-Table)
Schon mal dieses hier probiert?
Falls dieses auch Probleme macht geht noch ein Downgrade von Grafana auf eine ältere Version.
https://www.linuxheld.de/2023/02/07/downgrade-mit-apt/
Am Ende der Anleitung ist auch ein Link zur Erklärung wie man verhindert dass die neue Version beim nächsten Upgrade wieder installiert wird.
bei dieser version habe ich nur die gesamt anzeige, ich bekomme es nicht hin die unterschiedlichen instancen zu unterschiedlichen jobs zumachen
In this version I only have the overall display; I can’t manage to connect the different instances to different jobs
Well, small correction, as I use Angular daily.
Grafana does not use current Angular (which is now v18, and is used wildly in development of modern big apps) but AngularJS from 2010, which is no longer supported or maintained by Google.
Instead of rewriting AngularJS code to Angular (they had years to do it) they switched to React.
one is better than another. I hate any js. Especially on mobile. My opinion, sorry, but it’s much worse than PHP, which doesn’t consume so much RAM and CPU.
Ich habe jetzt auf Debian 12 und Grafana 11.x upgradet. Nun gibt das mit dem Storj-Exporter-Boom-Table bezüglich dem Panel plugin not found: yesoreyeram-boomtable-panel Probleme. Ich will allerdings nicht mein Grafana auf eine alte Version downgraden.
Hat hier schon jemand eine Lösung?
P.S. natürlich hab ich es schon auf diverse arten versucht zu installen. Ohne Erfolg
Hier noch ein Bildchen:
Und hier im "normalen Storj Exporter Dash sieht so aus:
3 Posts früher wurde schon auf diesen Post von Chris gelinkt:
Genau das habe ich ja bereits gemacht und bei allen den neuen storjexporter installiert (gestartet). Lade ich dieses Dashboard hier:
dann will er eben dieses yesoreyeram-boomtable-panel. Und genau das ist das Problem.
Danke
Das ist der alte Exporter. Der neue von Chris ist ein Fork. Sie benutzen den falschen Link: GitHub - TheChrisTech/Storj-Exporter: Prometheus exporter for monitoring Storj storage nodes
Ja das ist der ALTE. ABER ich benutze den neuen:
docker run -d --link=storagenode --name=storj-exporter -p 9651:9651 -e STORJ_HOST_ADDRESS=storagenode thechristech/storj-exporter:latest
Es geht wohl jetzt eher um das geänderte Dashboard, welches nicht mehr nach dem yesoreyeram-boomtable-panel Plugin rumschreit. Hab ich da nen falschen Link?
Danke
Chris hat auch einen Fork des Dashboards gemacht:
Hat sich erledigt. Ich habe nach dem Upgrade die selben Einstellungen beim Prometheus verwendet wie zuvor. Da mag er nicht. Jetzt klappt das Ganze wieder.
Danke
These have been fixed, but I think theres an artifact left. When I restart a node, I still get a spike.
Any idea if this is inevitable?
Can confirm that I also get these artifacts with all of my nodes. Currently I do not know any workaround, but judging by some recent commits, I think some changes that are being done for the dedicated disk feature could potentially remove the artifact after restarts. Just a guess.
I just put in grafana to ignore anything larger than 1Gb/s