[Eisfair] Wiki-Artikel zum Wechsel auf Kernel 4.9
Thomas Zweifel
t2fel at gmx.net
So Dez 8 11:40:39 CET 2019
Hallo Hilmar
Am 07.12.19 um 23:51 schrieb Hilmar Böhm:
> Echt gut! und vielen Dank für Deine Arbeit.
>
> Bei mir lief der Upgrade (Boot-Partitionvergrössern) leider nicht so
> easy, obwohl ich alle Schritte so durchgeführt habe, wie Du sie jetzt
> am Anfang Deines Artikel beschrieben hast.
> Der Unterschied war aber, dass ich nur mit einer Single Systemdisk
> gearbeitet habe, kein RAID.
Die Anleitung ist nur für Raid gedacht. Wie man /boot ohne Raid
vergrössert ist in der Anleitung von Marcus schon enthalten.
> Mein 1. Versuch - als Test - mit einem virtuellen Eis (KVM) lief
> einwandfrei, wie erwartet.
> Deswegen habe ich mich an meinwn alten EIS-1 Server (Hardware/Eisen)
> gewagt. Nach dem "resize2fs" war allerdings der Superblock der neuen
> Bootpartition invalid. Damit konnte auch das vorhandene (alte)
> Filesystem (ext3) nicht mehr gemountet werden. Eine Reparatur mit
> Ersatz-Superblocks funktionierte nicht.
>
> Das passierte sowohl, wenn ich die Operationen online/im laufenden
> Betrieb mit eisfair durchgeführt habe, als auch mit einem extern
> angebooteten OS (Clonezilla, keine GUI bei nur 230MB Mem.).
Das lässt sich, ohne den genauen Weg zu kennen den Du unternommen hast,
lediglich als Folgefehler vermuten.
Beim Non-Raid wäre mein vorgehen etwa so (wenn ich nur
eisfair-Boardmittel nutzen wollte)
Swap deaktivieren, /boot umounten und ein Backup davon per dd erstellen
/dev/sda1 --> /tmp/bootfs.
Dann die Partitionen per [g|f]disk ändern und das Backup von /boot
zurückkopieren - Da der Startsektor der ersten Partition gleich bleibt
bootet der Rechner nach wie vor - Die geänderte Partitionstabelle muss
allerdings über einen Reboot neu eingelesen werden.
Nach dem Reboot das ext-fs von /boot vergrössern, lilo aufrufen und den
swap wieder aktivieren.
Dies allerdings ohne Garantie, da ich nicht getestet habe ob Theorie und
Praxis miteinander können.... :-)
> Nun, ich hab's mit einigen Klimmzügen und einem Backup doch noch
> hingekriegt!
Gut.
> Jetzt habe ich 2 Fragen:
> - Du hast alle Aktionen im laufenden Betrieb durchgeführt?
Ja, während sda als ausgefallen gilt (bearbeitet wird) laufen das System
und die Dienste auf sdb weiter, und umgekehrt läuft das System und
Dienste auf sda während sdb bearbeitet wird.
> - Du schreibst: "Die Raid-Superblocks von sda1 und sda2 löschen wir
> ebenfalls". Warum löscht Du explizit die Superblocks?
Das ist reine Angewohnheit, vermeidet Probleme bei geklonten
installationen die dann mit der nicht gewollten Platte starten, oder
mdadm dazu bringen die Arbeit komplett zu verweigern.
In dem Fall wäre es nicht zwingend nötig. ;-)
> Werden beim
> Löschen/Vergrößern mit fdisk/gdisk nicht automatisch neue Superblocks
> erzeugt?
Nein, die werden erst beim Erneuten hinzufügen zum Raid neu erstellt.
Wobei ich den Eindruck nicht loswerde, dass wir da aneinander vorbeireden:
Die Superblocks beim Dateisystem und der Raid-Superblock sind nicht zu
verwechseln, beide beinhalten jedoch Metadaten die für den Betrieb nötig
sind. ;-)
eis # dd if=/dev/zero of=/tmp/testfs bs=1G count=1
1+0 records in
1+0 records out
1073741824 bytes (1.1 GB, 1.0 GiB) copied, 2.04844 s, 524 MB/s
eis # mke2fs -b4096 -m0 -i16384 -text4 -j /tmp/testfs
mke2fs 1.45.1 (12-May-2019)
Discarding device blocks: done
Creating filesystem with 262144 4k blocks and 65536 inodes
Filesystem UUID: d8a0253e-6d44-46ac-a2f8-374c9407c2a2
Superblock backups stored on blocks:
32768, 98304, 163840, 229376
Allocating group tables: done
Writing inode tables: done
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done
eis # mdadm -D /dev/md1
/dev/md1:
Version : 0.90
Creation Time : Fri Dec 6 08:56:11 2019
Raid Level : raid1
Array Size : 98240 (95.94 MiB 100.60 MB)
Used Dev Size : 98240 (95.94 MiB 100.60 MB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sat Dec 7 18:25:29 2019
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : unknown
UUID : cc84bcaa:66f12d51:3d186b3c:53958f34
Events : 0.110
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
Gruss Thomas
Mehr Informationen über die Mailingliste Eisfair