Как снова запустить неактивное устройство RAID?

После загрузки мое устройство RAID1 ( /dev/md_d0 *) иногда переходит в какое-то смешное состояние, и я не могу его смонтировать.

* Первоначально я создал /dev/md0 но он каким-то образом превратился в /dev/md_d0 .

 # mount /opt mount: wrong fs type, bad option, bad superblock on /dev/md_d0, missing codepage or helper program, or other error (could this be the IDE device where you in fact use ide-scsi so that sr0 or sda or so is needed?) In some cases useful info is found in syslog - try dmesg | tail or so 

Кажется, что устройство RAID неактивно :

 # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md_d0 : inactive sda4[0](S) 241095104 blocks # mdadm --detail /dev/md_d0 mdadm: md device /dev/md_d0 does not appear to be active. 

Вопрос в том, как сделать устройство активным снова (используя mdmadm , я полагаю)?

(В других случаях это нормально (после загрузки), и я могу установить его вручную без проблем, но он все равно не будет монтироваться автоматически, даже если у меня есть его в /etc/fstab :

 /dev/md_d0 /opt ext4 defaults 0 0 

Итак, вопрос с бонусом: что мне делать, чтобы RAID-устройство автоматически смонтировалось в /opt во время загрузки? )

Это рабочая станция Ubuntu 9.10. Фоновая информация о настройке RAID в этом вопросе .

Изменить : Мой /etc/mdadm/mdadm.conf выглядит следующим образом. Я никогда не касался этого файла, по крайней мере, вручную.

 # by default, scan all partitions (/proc/partitions) for MD superblocks. # alternatively, specify devices to scan, using wildcards if desired. DEVICE partitions # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR <my mail address> # definitions of existing MD arrays # This file was auto-generated on Wed, 27 Jan 2010 17:14:36 +0200 

В /proc/partitions последняя запись является md_d0 по крайней мере сейчас, после перезагрузки, когда устройство снова активируется. (Я не уверен, будет ли то же самое, когда он неактивен.)

Разрешение : как предложил Джимми Хедман , я взял вывод mdadm --examine --scan :

 ARRAY /dev/md0 level=raid1 num-devices=2 UUID=de8fbd92[...] 

И добавил его в /etc/mdadm/mdadm.conf , который, похоже, /etc/mdadm/mdadm.conf основную проблему. После изменения /etc/fstab снова использовать /dev/md0 (вместо /dev/md_d0 ), устройство RAID также автоматически устанавливается!

  • Программный RAID 5 с несколькими разделами (один зашифрованный раздел)
  • Чтобы сделать системный звуковой сигнал Irssi
  • Когда mac / ubuntu использует .bash_profile и / или .bashrc?
  • Легко сказать, если сфокусирован на окне VirtualBox?
  • Открытие файлов mdb в Ubuntu
  • Включите swap-память на Ubuntu
  • VirtualBox для использования двух мониторов
  • Небольшие шрифты все новые сообщения в Gmail на Ubuntu в Opera, почему?
  • 9 Solutions collect form web for “Как снова запустить неактивное устройство RAID?”

    Для вашего бонусного вопроса:

     mdadm --examine --scan >> /etc/mdadm/mdadm.conf 

    Я обнаружил, что мне нужно добавить массив вручную в /etc/mdadm/mdadm.conf , чтобы Linux смонтировал его при перезагрузке. В противном случае я получаю именно то, что у вас здесь – md_d1 -устройства, которые неактивны и т. Д.

    Конф-файл должен выглядеть как ниже – т.е. одна ARRAY для каждого md-устройства. В моем случае в этом файле отсутствовали новые массивы, но если вы их указали, это, вероятно, не проблема в вашей проблеме.

     # definitions of existing MD arrays ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d 

    Добавьте один массив на md-устройство и добавьте их после комментария, указанного выше, или, если такой комментарий не существует, в конце файла. Вы получаете UUID, выполняя sudo mdadm -E --scan :

     $ sudo mdadm -E --scan ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d 

    Как вы можете видеть, вы можете просто скопировать результат из результата сканирования в файл.

    Я запускаю ubuntu desktop 10.04 LTS, и насколько я помню, это поведение отличается от серверной версии Ubuntu, однако это было так давно, что я создал свои md-устройства на сервере. Возможно, я ошибаюсь. Возможно также, что я просто пропустил какой-то вариант.

    В любом случае, добавление массива в conf-файл, похоже, делает трюк. Я бежал выше рейда 1 и рейд 5 в течение многих лет без проблем.

    Предупреждение: Прежде всего позвольте мне сказать, что ниже (из-за использования «–force») представляется мне рискованным, и если у вас есть безвозвратные данные, я бы рекомендовал сделать копии разделов, прежде чем вы начнете пытаться Ниже. Однако это сработало для меня.

    У меня была та же проблема: массив, показанный как неактивный, и ничего, что я делал, включая «mdadm –examine –scan> /etc/mdadm.conf», как это предлагали другие, помогло вообще.

    В моем случае, когда он попытался запустить массив RAID-5 после замены диска, он говорил, что он был грязным (через dmesg ):

     md/raid:md2: not clean -- starting background reconstruction md/raid:md2: device sda4 operational as raid disk 0 md/raid:md2: device sdd4 operational as raid disk 3 md/raid:md2: device sdc4 operational as raid disk 2 md/raid:md2: device sde4 operational as raid disk 4 md/raid:md2: allocated 5334kB md/raid:md2: cannot start dirty degraded array. 

    Причиной того, чтобы он отображался как неактивный в /proc/mdstat :

     md2 : inactive sda4[0] sdd4[3] sdc4[2] sde4[5] 3888504544 blocks super 1.2 

    Я обнаружил, что на всех устройствах были одни и те же события, за исключением того, что я заменил диск ( /dev/sdb4 ):

     [root@nfs1 sr]# mdadm -E /dev/sd*4 | grep Event mdadm: No md superblock detected on /dev/sdb4. Events : 8448 Events : 8448 Events : 8448 Events : 8448 

    Однако детали массива показали, что у него было 4 из 5 доступных устройств:

     [root@nfs1 sr]# mdadm --detail /dev/md2 /dev/md2: [...] Raid Devices : 5 Total Devices : 4 [...] Active Devices : 4 Working Devices : 4 [...] Number Major Minor RaidDevice State 0 8 4 0 inactive dirty /dev/sda4 2 8 36 2 inactive dirty /dev/sdc4 3 8 52 3 inactive dirty /dev/sdd4 5 8 68 4 inactive dirty /dev/sde4 

    (Вышеизложенное из памяти в столбце «Состояние», я не могу найти его в своем буфере обратной прокрутки).

    Я смог решить это, остановив массив, а затем снова собрал его:

     mdadm --stop /dev/md2 mdadm -A --force /dev/md2 /dev/sd[acde]4 

    В этот момент массив работал, работая с 4 из 5 устройств, и я смог добавить заменяющее устройство и его восстановление. Я могу получить доступ к файловой системе без каких-либо проблем.

    У меня были проблемы с Ubuntu 10.04, где ошибка в FStab не позволяла серверу загружаться.

    Я выполнил эту команду, как указано в приведенных выше решениях:

     mdadm --examine --scan >> /etc/mdadm/mdadm.conf 

    Это добавит результаты из «mdadm –examine –scan» в «/etc/mdadm/mdadm.conf»

    В моем случае это было:

     ARRAY /dev/md/0 metadata=1.2 UUID=2660925e:6d2c43a7:4b95519e:b6d110e7 name=localhost:0 

    Это fakeraid 0. Моя команда в / etc / fstab для автоматического монтирования:

     /dev/md0 /home/shared/BigDrive ext3 defaults,nobootwait,nofail 0 0 

    Важно то, что у вас есть «nobootwait» и «nofail». Nobootwait пропустит любые системные сообщения, которые мешают вам загружаться. В моем случае это было на удаленном сервере, поэтому это было важно.

    Надеюсь, это поможет некоторым людям.

    Вы можете активировать свое md-устройство с помощью

     mdadm -A /dev/md_d0 

    Я полагаю, что запуск скрипта запускается слишком рано, прежде чем один из членов RAID был обнаружен или какая-то схожая проблема. В качестве быстрого и грязного обходного пути вы можете добавить эту строку в /etc/rc.local:

     mdadm -A /dev/md_d0 && mount /dev/md_d0 

    Изменить: очевидно, ваш файл /etc/mdadm/mdadm.conf по-прежнему содержит старое имя конфигурации. Отредактируйте этот файл и замените вхождения md0 на md_d0.

    У меня была аналогичная проблема … мой сервер не смонтировал md2 после того, как я расширил разделы связанных устройств. При чтении этого потока я обнаружил, что RAID-устройство md2 имеет новый UUID, и машина пыталась использовать старый.

    Как было предложено … используя вывод «md2» из

     mdadm --examine --scan 

    Я отредактировал /etc/mdadm/mdadm.conf и заменил старую строку UUID на один вывод из вышеприведенной команды, и моя проблема исчезла.

    Когда вы притворяетесь что-то делать с /dev/md[012346789} он переходит в /dev/md{126,127...} . /dev/md0 продолжает монтироваться на /dev/md126 или /dev/md127 вам необходимо:

    Umount /dev/md127 или umount /dev/md126 .

    Это временно позволяет выполнять команды и некоторые приложения без остановки вашей системы.

    Простой способ заставить массив работать, предполагая, что нет проблем с оборудованием, и у вас достаточно дисков / разделов для запуска массива:

     md20 : inactive sdf1[2](S) 732442488 blocks super 1.2 sudo mdadm --manage /dev/md20 --run 

    Может быть, по какой-то причине массив отлично, но что-то помешало ему начать или построить. В моем случае это было потому, что mdadm не знал, что исходное имя массива было md127, и все диски были отключены от этого массива. При повторной загрузке мне пришлось вручную собрать (вероятно, ошибку, в которой mdadm считал массив уже активным из-за старого имени старого массива).

    md_d0 : inactive sda4[0](S) выглядит неправильно для массива RAID1. Кажется, что массив не имеет активных устройств и одного запасного устройства (обозначается (S), вы увидите (F) там для отказавшего устройства и ничего для OK / активного устройства) – для массива RAID1, который не является При работе с ухудшением должно быть не менее двух OK / активных устройств (и для деградированного массива, хотя бы одного OK / активного устройства), и вы не можете активировать массив RAID1 без каких-либо невосстановленных не-запасных устройств (в качестве запасных частей Не содержат копии данных, пока они не станут активными, когда другой диск не сработает). Если я правильно читаю это /proc/mdstat , вы не сможете активировать массив в текущем состоянии.

    У вас есть какие-либо физические диски в машине, которые не смогли развернуться? ls /dev/sd* ли ls /dev/sd* список всех дисков и разделов, которые вы обычно ожидаете увидеть на этой машине?

    Interesting Posts

    Windows 8 сообщает о безотказной работе (возможно, в режиме полного времени гибридной загрузки)

    Окна рабочего стола Windows 8 застряли спереди

    Возможно ли слишком часто форматировать жесткий диск?

    Учитывая MAC-адрес компьютера, могу ли я найти его IP-адрес?

    Как фильтровать файл для строк, содержащих строку в Sublime Text 2?

    Как определить шрифты с изображения?

    Запретить пользователю Excel 2010 вставлять форматирование в ячейку

    Crashplan + TrueCrypt – Overkill?

    Как восстановить поврежденную базу данных Firefox sites.sqlite?

    Запуск задач и запуск программ, когда Windows 7 подключена или отключена?

    Как изменить данные существующего имени значения ключа реестра из cmd?

    Synergy, клиент OSX, сервер Windows 7 – нет мыши на клиенте

    Сохранение элементов блога в формате pdf

    Как восстановить неисправный внешний жесткий диск от Time Machine?

    Мой ноутбук не будет спать, когда я закрываю крышку

    Давайте будем гением компьютера.