Node usage does not match

In Windows it shows me that the node is almost full, but in the dashboard it is only a fraction of it

screenshot.19

sorry for my bad english

Did you disabled filewalker?

1 Like

No, I didn’t deactivate it either. I did the GUI installation normally and the nodes ran perfectly for 3 months

D and H are way too full, maybe because of overhead.

1 Like

They can’t be that full, they’ve only been in operation for about 3 months and a lot of TB is already occupied? I already deducted 10% during installation

Then its time for investigation. 440GB is not 10%.

Wich drive is it ?

Please tell us the config. And the hardware.

1 Like

Hello, it’s an 18TB Toshiba Enterprise Capacity MG09ACA18TE (exFAT) .
yes 10% after formating

I suspect the cluster size is to big at exfat.

Solution:

Stop the node,
Backup the data,
Format to ntfs cluster size 8k. (GPT)
Give it the same drive letter as before.
Move data back,(this also counts as defragmentation)
Start the node.
Drive is dedicated to storj, i assume.
Are the dbs already on ssd?

Whats the rest of the hardware?

3 Likes

Kann noch Deutsch anbieten :grin:

1 Like

Deutsch ist super, was mich noch immer fuchst ist das ich nicht so viele Speicher belegt haben sollte seitens Storj, zumindest nicht nach 3 Monate betrieb . Es muss ich also um einen Systemfehler handeln der mir diesen Überschuss zuteilt. Laut Dashboard sind gerade mal paar Prozent von der Node belegt , was auch in den Zeitplan passt :confused:

Storj verteilt nicht unwesentlich viele kleine dateien die dann alle sehr viel mehr speicher auf der platte belegen. Ich vermute reformatieren ist unumgänglich.

Oder das dateisystem ist korrupt dann würd der node aber vermutlich disqualifiziert werden. So oder so.

Exfat ist nicht geeignet für storagenodes.

Ich hab auch die toshiba MG10 20tb. NTFS /8k cluster size /GPT ist wichtig! formatiert

2 Likes

Such mal eine 1k datei raus und klicke die eigenschaften.
Oder auch direkt für das laufwerk.
Da steht dann immer platz belegt auf datenträger. Das ist immer bis zum vielfachen der clustergrösse.

Bei 256k clustergrösse belegen 4 1k files 1 mb

2 Likes

verrückt , bei der 1k Datei ist 8 MB belegt

Ja. 8000k cluster…das ist das problem…musst umformatieren

8k sollte passen bei der platte.

was meinst mit dbs ? muss der Speicher auf den ich das Backup mache auch in ntfs sein ?

Die datenbanken für das dashboard.

Nicht zwingend. Aber wenn die klustergrösse da auch 8mb ist braucht es halt auch 18tb.

Könntest auch alles ohne kompression zu einem zip file machen und das dann backuppen. Vieleicht ist das dann passender für das backupmedium.

Es gibt programme die umformatierungen ohne datenverlust machen? könnten? aber für den fall weis ich es nicht genau. Was steht denn als backupmedium zur auswahl? Bzw wie sind die cluster bei e und j?

Soweit ich weiß, nein. Vor allem von exFAT.

Aber am besten wäre doch NTFS mit Standard 4K. Warum 8K?

NTFS mit Windows ist ganz schwach. Damit wirst über einige Jahre nicht glücklich werden. Lieber Linux wie Ubuntu-Server nehmen. EXT4 funktioniert um Welten besser als NTFS.

Ja, es ist besser, die Standard-Clustergröße zu verwenden. Vielleicht hat @daki82 es einfach vergessen oder einen Fehler gemacht.

Потому что при кластере 4к ты не сможешь создать раздел больше 16 Tb
Всё правильно он сказал. NTFS/8k/GPT

1 Like