In Windows it shows me that the node is almost full, but in the dashboard it is only a fraction of it
sorry for my bad english
In Windows it shows me that the node is almost full, but in the dashboard it is only a fraction of it
sorry for my bad english
Did you disabled filewalker?
No, I didn’t deactivate it either. I did the GUI installation normally and the nodes ran perfectly for 3 months
D and H are way too full, maybe because of overhead.
They can’t be that full, they’ve only been in operation for about 3 months and a lot of TB is already occupied? I already deducted 10% during installation
Then its time for investigation. 440GB is not 10%.
Wich drive is it ?
Please tell us the config. And the hardware.
Hello, it’s an 18TB Toshiba Enterprise Capacity MG09ACA18TE (exFAT) .
yes 10% after formating
I suspect the cluster size is to big at exfat.
Solution:
Stop the node,
Backup the data,
Format to ntfs cluster size 8k. (GPT)
Give it the same drive letter as before.
Move data back,(this also counts as defragmentation)
Start the node.
Drive is dedicated to storj, i assume.
Are the dbs already on ssd?
Whats the rest of the hardware?
Kann noch Deutsch anbieten
Deutsch ist super, was mich noch immer fuchst ist das ich nicht so viele Speicher belegt haben sollte seitens Storj, zumindest nicht nach 3 Monate betrieb . Es muss ich also um einen Systemfehler handeln der mir diesen Überschuss zuteilt. Laut Dashboard sind gerade mal paar Prozent von der Node belegt , was auch in den Zeitplan passt
Storj verteilt nicht unwesentlich viele kleine dateien die dann alle sehr viel mehr speicher auf der platte belegen. Ich vermute reformatieren ist unumgänglich.
Oder das dateisystem ist korrupt dann würd der node aber vermutlich disqualifiziert werden. So oder so.
Exfat ist nicht geeignet für storagenodes.
Ich hab auch die toshiba MG10 20tb. NTFS /8k cluster size /GPT ist wichtig! formatiert
Such mal eine 1k datei raus und klicke die eigenschaften.
Oder auch direkt für das laufwerk.
Da steht dann immer platz belegt auf datenträger. Das ist immer bis zum vielfachen der clustergrösse.
Bei 256k clustergrösse belegen 4 1k files 1 mb
Ja. 8000k cluster…das ist das problem…musst umformatieren
8k sollte passen bei der platte.
was meinst mit dbs ? muss der Speicher auf den ich das Backup mache auch in ntfs sein ?
Die datenbanken für das dashboard.
Nicht zwingend. Aber wenn die klustergrösse da auch 8mb ist braucht es halt auch 18tb.
Könntest auch alles ohne kompression zu einem zip file machen und das dann backuppen. Vieleicht ist das dann passender für das backupmedium.
Es gibt programme die umformatierungen ohne datenverlust machen? könnten? aber für den fall weis ich es nicht genau. Was steht denn als backupmedium zur auswahl? Bzw wie sind die cluster bei e und j?
Soweit ich weiß, nein. Vor allem von exFAT.
Aber am besten wäre doch NTFS mit Standard 4K. Warum 8K?
NTFS mit Windows ist ganz schwach. Damit wirst über einige Jahre nicht glücklich werden. Lieber Linux wie Ubuntu-Server nehmen. EXT4 funktioniert um Welten besser als NTFS.
Ja, es ist besser, die Standard-Clustergröße zu verwenden. Vielleicht hat @daki82 es einfach vergessen oder einen Fehler gemacht.
Потому что при кластере 4к ты не сможешь создать раздел больше 16 Tb
Всё правильно он сказал. NTFS/8k/GPT