[Eisfair] [E1] Altes Software Raid 1 ohne mdadm.conf erzeugt md124 md125 md126 md127
Johannes Hinteregger
effendi at bayern-mail.de
Mi Jul 19 12:43:24 CEST 2023
Hallo Holger,
erstmal danke für die Aufklärung!
>
> Mit mdadm hast du zusaetzlcih die Moeglichkeit das Raid auch ueberwachen
> zu lassen und dir entsprechende Meldungen schicekn zu lassen, wenn etwas
> im Busch ist, ganz nuetzlich wenn z.B. eine Platte ausfaellt.
>
>> Was ich auf dem System noch gefunden habe, ist ein beim Kernel-Update
>> (17.07.23) aktualisiertes Verzeichnis /run, dort gibt es eben /run/mdadm
>> mit einer ebenfalls 17.07.23 erstellten Datei map mit folgendem Inhalt:
>
> nunja, dass hat nichts mit dem Kernelupdate zu tun, /run mit seinem
> ganzen Inhalt wird bei jedem boot neu erzeugt
Alles klar, gut zu wissen.
>
> wenn du madam installierst kannst du dir das auch anzeigen lassen
mdadm ist bei mir installiert, aber nicht aktiviert, trotzdem funktioniert:
>
> mdadm --detail --scan
mit der Ausgabe
eis # mdadm --detail --scan
ARRAY /dev/md/127_0 metadata=0.90 UUID=8b67e30d:9855464b:dce3b997:d44eac15
ARRAY /dev/md/127_1 metadata=0.90 UUID=e06eca0d:4a4bb2ca:385b2224:37b98de5
ARRAY /dev/md/125_0 metadata=0.90 UUID=63ad8927:38125ef0:12cd9f44:c016e716
ARRAY /dev/md/124_0 metadata=0.90 UUID=298b8dd8:103d6aff:19095078:02a0c4b7
>
>
> bei mir sieht das dann so aus
>
> eis:/ # mdadm --detail --scan
> ARRAY /dev/md/1 metadata=0.90 UUID=1e5c2d11:94aca0af:3d186b3c:53958f34
> ARRAY /dev/md/3 metadata=1.2 name=(none):3
> UUID=a418336e:d0bd8a83:ff463adc:c569886f
> ARRAY /dev/md/2 metadata=1.2 name=(none):2
> UUID=6b9bad29:1f445ef9:2204cf51:dc0ecb85
> ARRAY /dev/md/4 metadata=1.2 name=(none):3
> UUID=de3e2100:f181d438:9381a835:795e07c8
>
> und der map file in /run
>
> md4 1.2 00213ede:38d481f1:35a88193:c8075e79 /dev/md/4
> md3 1.2 6e3318a4:838abdd0:dc3a46ff:6f8869c5 /dev/md/3
> md1 0.90 1e5c2d11:94aca0af:3d186b3c:53958f34 /dev/md/1
> md2 1.2 29ad9b6b:f95e441f:51cf0422:85cb0edc /dev/md/2
>
>
> eis:/ # cat /proc/mdstat
> Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5]
> [raid4] [multipath]
> md4 : active raid1 sdd3[2] sdc3[3]
> 2929944000 blocks super 1.2 [2/2] [UU]
> bitmap: 0/22 pages [0KB], 65536KB chunk
>
> md2 : active raid1 sdb2[1] sda2[0]
> 130048 blocks super 1.2 [2/2] [UU]
> bitmap: 0/1 pages [0KB], 65536KB chunk
>
> md3 : active raid1 sdb3[1] sda3[0]
> 488013824 blocks super 1.2 [2/2] [UU]
> bitmap: 0/4 pages [0KB], 65536KB chunk
>
> md1 : active raid1 sdb1[1] sda1[0]
> 98240 blocks [2/2] [UU]
> bitmap: 0/1 pages [0KB], 65536KB chunk
>
> unused devices: <none>
>
Aha, Du hast also auch noch version 0.90 superblock dabei.
Der Hintergrund meiner Anfrage ist, einfach einigermaßen zu
durchblicken, was passiert, um im Falle eines Problems keinen unnötigen
Stress zu bekommen...bzw. Plan B im Hinterkopf zu haben.
Um es zusammenzufassen:
Wenn ich nun im Menu "Filesystem administration" "mdadm - RAID
management" unter "edit configuarition" aktiviere, kann ich dadurch
erstmal nichts kaputtmachen.
Das ist die Ausgabe "Show status":
│/usr/sbin/service status mdadm
│
│* mdadm.service
│
│ Loaded: loaded (/etc/init.d/mdadm; generated)
│
│ Active: inactive (dead)
│
│ Docs: man:systemd-sysv-generator(8)
│
│Press ENTER to continue
In diesem Menu könnte ich auch "Create mdadm conf" auswählen.
Was passiert da genau und wohin wird die Konfigurationsdatei geschrieben?
Auf welche eventuellen Fehlerquellen muss ich achten oder kann absolut
nix schiefgehen?
Wie reagiere ich, falls das System tatsächlich nach dem Erstellen der
mdadm.conf nicht mehr hochkommen sollte? Das ist nämlich meine Sorge...
Letzte Frage: Mein System bzw. mein Kernel hat also per Konfiguration
erstmal überhaupt keine Ahnung vom vorhandenen Raid, sondern schaut sich
beim Bootvorgang einfach die Partitionierung an. Das heißt doch in
Konsequenz, dass irgendein Linux-Live-System das Raid genauso erkennen
würde/sollte, wie der eis?
Danke
Johannes
Mehr Informationen über die Mailingliste Eisfair