[Eisfair] Fehlermeldung beim Einsatz von rsync - NEU
Jürgen Witt
j-witt at web.de
Mi Mär 13 16:19:40 CET 2019
Hallo Marcus,
Am 13.03.2019 um 08:11 schrieb Marcus Roeckrath:
> Hallo Jürgen,
>
> Was passiert, wenn man explizit diese Datei im rsync-Aufruf mal
> ausschliesst.
>
> Oder diese Datei auf dem Backupsystem manuell oder im Skript mal vorher
> löscht.
habe ich noch nicht probiert.
Die Datei ist aber eine Datenbank-Datei und darf nicht ausgelassen werden.
> Wie groß ist die Datei?
Der zugesendete Report endet wieder mit der selben Datei QMETA.FPT in
einem Unterordner von public. Diese Datei ist 2700 MB groß.
>
> Hast du mir nicht beschrieben, dass auf keinem der beiden Rechner der
> rsync-Daemon läuft?
das ist auch korrekt. Ich baue per ssh eine Verbindung zwischen den
beiden Servern auf und gleichen per rsync dann 3 Ordner ab.
Der Ordner TDAMP vom Produktiv-Server wurde komplett (weil ich den
Original-Ordner auf dem Ziel-Server ja in TDAMP- umbenannt und TDAMP neu
erstellt habe) und erfolgreich übertragen.
rsync hatte eine Menge zu tun.
sent 2,310,778 bytes received 78,116,910,294 bytes 7,019,113.26 bytes/sec
total size is 537,209,539,545 speedup is 6.88
Plattenplatz auf dem Backup-Server
eis # df -h
Filesystem Size Used Avail Use% Mounted on
/dev/md3 23G 2.0G 20G 9% /
tmpfs 2.0G 496K 2.0G 1% /run
devtmpfs 2.0G 4.0K 2.0G 1% /dev
/dev/md1 43M 16M 24M 39% /boot
/dev/md4 1.8T 521G 1.2T 31% /data
/dev/sdc1 1.8T 882G 858G 51% /mountpoint
tmpfs 2.0G 0 2.0G 0% /run/shm
tmpfs 2.0M 312K 1.7M 16% /brute_force_blocking
10.20.3.100:/mountpoint/data 1.8T 882G 858G 51% /backup
inodes sind auch nicht voll
eis # df -i
Filesystem Inodes IUsed IFree IUse% Mounted on
/dev/md3 1537088 47065 1490023 4% /
tmpfs 217335 1063 216272 1% /run
devtmpfs 216667 1747 214920 1% /dev
/dev/md1 12288 23 12265 1% /boot
/dev/md4 120291328 1011255 119280073 1% /data
/dev/sdc1 122101760 5330328 116771432 5% /mountpoint
tmpfs 217335 1 217334 1% /run/shm
tmpfs 217335 42 217293 1%
/brute_force_blocking
10.20.3.100:/mountpoint/data 122101760 5330328 116771432 5% /backup
Die gespiegelten Festplatten des Backup-Servers
eis # cat /etc/fstab
/dev/md3 / ext4 defaults,errors=remount-ro 0 1
/dev/md1 /boot ext4 defaults,errors=remount-ro 0 1
/dev/md2 none swap sw 0 0
/dev/md4 /data ext4 defaults 0 2
UUID=77d2f9a2-8847-4b38-a8ab-8d1e70ec3ea6 /mountpoint ext4 defaults 0 0
10.20.3.100:/mountpoint/data /backup nfs defaults,noauto 0 0
/dev/sdd1 /media/usb/sdd1 ext4 defaults,noauto 0 0
proc /proc proc defaults 0 0
/dev/fd0 /media/floppy auto defaults,user,noauto 0 0
/dev/cdrom /media/cdrom iso9660 defaults,ro,user,noauto 0 0
devpts /dev/pts devpts defaults,gid=5,mode=620 0 0
/sys /sys sysfs defaults 0 0
tmpfs /dev/shm tmpfs rw,nosuid,nodev 0 0
tmpfs /run tmpfs defaults 0 0
devtmpfs /dev devtmpfs mode=0755,nosuid 0 0
Die tolle Röntgen-Software Sidexis hat innerhalb kurzer Zeit weit über
32000 Ordner angelegt. Das führte zwischenzeitlich zu Problemen mit
meinen USB-Festplatten (die nur ext3 formatiert waren), auf die ich die
Dateien zusätzlich auch noch sichere.
Plattenplatz auf dem Produktiv-Server
debian # df -h
Filesystem Size Used Avail Use% Mounted on
/dev/cciss/c0d0p3 913G 537G 330G 62% /
tmpfs 1.8G 26M 1.8G 2% /run
devtmpfs 1.8G 4.0K 1.8G 1% /dev
/dev/cciss/c0d0p1 43M 15M 25M 37% /boot
tmpfs 1.8G 0 1.8G 0% /run/shm
tmpfs 2.0M 312K 1.7M 16% /brute_force_blocking
und die inodes
debian # df -i
Filesystem Inodes IUsed IFree IUse% Mounted on
/dev/cciss/c0d0p3 60784640 1069950 59714690 2% /
tmpfs 218178 973 217205 1% /run
devtmpfs 217565 1689 215876 1% /dev
/dev/cciss/c0d0p1 12288 20 12268 1% /boot
tmpfs 218178 1 218177 1% /run/shm
tmpfs 218178 42 218136 1% /brute_force_blocking
Könnte auch ein Problem auf dem Produktiv-Server die Ursache sein? Dort
gibt es ein Hardware Raid-1. Ursprünglich waren an dem Controller
SAS-Festplatten. Als die zu klein wurden, habe ich diese durch
Sata-Platten (WD Gold) ersetzt. Seit dem kann ich auf dem Server keine
Smart-Werte mehr per smartmon ermitteln. Sollte ich dort am Wochenende
'mal ein e2fsck machen?
Die Größe von public: ca. 520 GB und die Anzahl der Ordner (mehr als
250000).
Danke
Jürgen
Mehr Informationen über die Mailingliste Eisfair