GNU/Linux >> Znalost Linux >  >> Linux

Jak znovu uvést neaktivní zařízení RAID do provozu?

Pro vaši bonusovou otázku:

mdadm --examine --scan >> /etc/mdadm/mdadm.conf

Zjistil jsem, že musím pole přidat ručně v /etc/mdadm/mdadm.conf aby se Linux připojil při restartu. Jinak chápu přesně to, co tady máte - md_d1 -zařízení, která jsou neaktivní atd.

Soubor conf by měl vypadat jako níže – tedy jeden ARRAY -řádek pro každé md-zařízení. V mém případě nová pole v tomto souboru chyběla, ale pokud je máte v seznamu, pravděpodobně to není řešení vašeho problému.

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d

Přidejte jedno pole na každé md-device a přidejte je za komentář uvedený výše, nebo pokud žádný takový komentář neexistuje, na konec souboru. UUID získáte provedením sudo mdadm -E --scan :

$ sudo mdadm -E --scan
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d

Jak vidíte, můžete v podstatě jen zkopírovat výstup z výsledku skenování do souboru.

Používám ubuntu desktop 10.04 LTS, a pokud si pamatuji, toto chování se liší od serverové verze Ubuntu, ale bylo to tak dávno, co jsem vytvořil své md-devices na serveru, mohu se mýlit. Může se také stát, že jsem jen přehlédl nějakou možnost.

Zdá se však, že přidání pole do souboru conf stačí. Spustil jsem výše uvedený raid 1 a raid 5 roky bez problémů.


Upozornění: Nejprve mi dovolte říci, že níže uvedené (kvůli použití "--force") mi připadá riskantní, a pokud máte neobnovitelná data, doporučuji vytvořit kopie příslušných oddílů, než začnete zkoušet některou z věcí níže. Nicméně pro mě to fungovalo.

Měl jsem stejný problém, pole se ukázalo jako neaktivní a nic, co jsem neudělal, včetně "mdadm --examine --scan>/etc/mdadm.conf", jak navrhovali ostatní zde, nepomohlo.

V mém případě, když se po výměně disku pokusilo spustit pole RAID-5, hlásilo, že je špinavé (přes dmesg ):

md/raid:md2: not clean -- starting background reconstruction
md/raid:md2: device sda4 operational as raid disk 0
md/raid:md2: device sdd4 operational as raid disk 3
md/raid:md2: device sdc4 operational as raid disk 2
md/raid:md2: device sde4 operational as raid disk 4
md/raid:md2: allocated 5334kB
md/raid:md2: cannot start dirty degraded array.

To způsobí, že se v /proc/mdstat zobrazí jako neaktivní :

md2 : inactive sda4[0] sdd4[3] sdc4[2] sde4[5]
      3888504544 blocks super 1.2

Zjistil jsem, že na všech zařízeních byly stejné události, kromě disku, který jsem vyměnil (/dev/sdb4 ):

[[email protected] sr]# mdadm -E /dev/sd*4 | grep Event
mdadm: No md superblock detected on /dev/sdb4.
         Events : 8448
         Events : 8448
         Events : 8448
         Events : 8448

Podrobnosti o poli však ukázaly, že má k dispozici 4 z 5 zařízení:

[[email protected] sr]# mdadm --detail /dev/md2
/dev/md2:
[...]
   Raid Devices : 5
  Total Devices : 4
[...]
 Active Devices : 4
Working Devices : 4
[...]
    Number   Major   Minor   RaidDevice State
       0       8        4        0      inactive dirty  /dev/sda4
       2       8       36        2      inactive dirty  /dev/sdc4
       3       8       52        3      inactive dirty  /dev/sdd4
       5       8       68        4      inactive dirty  /dev/sde4

(Výše uvedené je z paměti ve sloupci "Stav", nemohu to najít ve vyrovnávací paměti pro posun zpět).

Podařilo se mi to vyřešit zastavením pole a jeho opětovným sestavením:

mdadm --stop /dev/md2
mdadm -A --force /dev/md2 /dev/sd[acde]4

V tu chvíli bylo pole v provozu, běželo se 4 z 5 zařízení a byl jsem schopen přidat náhradní zařízení a je přestavěno. Jsem schopen přistupovat k systému souborů bez problémů.


Linux
  1. Implementace Mdadm Raid s Gpt Partitioning?

  2. Jak zprovoznit Mumble's Overlay?

  3. Jak zajistit, aby jas fungoval na Lenovo Ideapad Yoga?

  1. Jak získat 4k @ 60hz při 4:2:0 při práci v Ubuntu 16.04?

  2. CentOS / RHEL :Jak sestavit softwarový RAID v záchranném režimu

  3. Jak mohu získat jedinečné hodnoty z pole v Bash?

  1. Nelze zastavit nájezdové zařízení

  2. Jak přimět NFSv4 idmap pracovat s sec=sys?

  3. Název zařízení MD se po prvním restartu změní tak, aby zahrnoval HOSTNAME:. Jak získám konzistentní jméno?