Ru-Board.club
← Вернуться в раздел «Магнитные носители информации»

» WD sharespace

Автор: S4astliff4ik
Дата сообщения: 03.12.2010 09:15
goletsa
не получается
[more]
a@Nikita:~$ sudo su -
root@Nikita:~# mdadm --assemble /dev/md1 --force /dev/loop0 /dev/loop1 /dev/loop2 /dev/loop3
mdadm: cannot open device /dev/loop0: Device or resource busy
mdadm: /dev/loop0 has no superblock - assembly aborted
root@Nikita:~#
[/more]
А вот история команд
[more]
a@Nikita:~$ sudo losetup /dev/loop0 /media/4d8641bd-7f17-46e2-9667-6cc56f690e3e/wd/1/disk1_part4_data.part
[sudo] password for a:
a@Nikita:~$ sudo losetup /dev/loop1 /media/4d8641bd-7f17-46e2-9667-6cc56f690e3e/wd/2/disk2_part4_data.part
a@Nikita:~$ sudo losetup /dev/loop2 /media/90fa1edf-291b-4ee1-8a4f-6d09e23b9ed2/wd/3/disk3_part4_data.part
a@Nikita:~$ sudo losetup /dev/loop3 /media/ef34dbab-b74d-4b6d-9b5b-53e5be4132db/wd/4/disk4_part4_data.part
a@Nikita:~$ mdadm --examine /dev/loop0
mdadm: cannot open /dev/loop0: Permission denied
a@Nikita:~$ sudo mdadm --examine /dev/loop0
/dev/loop0:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Thu Sep 23 04:42:35 2010
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 53a30f01 - correct
Events : 2369014

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 3 8 52 3 active sync

0 0 8 4 0 active sync
1 1 8 20 1 active sync
2 2 8 36 2 active sync
3 3 8 52 3 active sync
a@Nikita:~$ sudo mdadm --examine /dev/loop1
/dev/loop1:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Thu Sep 23 04:42:35 2010
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 53a30eef - correct
Events : 2369014

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 2 8 36 2 active sync

0 0 8 4 0 active sync
1 1 8 20 1 active sync
2 2 8 36 2 active sync
3 3 8 52 3 active sync
a@Nikita:~$ sudo mdadm --examine /dev/loop2
/dev/loop2:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Fri Nov 26 23:48:06 2010
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 2
Spare Devices : 0
Checksum : 53f88909 - correct
Events : 2369019

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 1 7 2 1 active sync /dev/loop2

0 0 7 3 0 active sync /dev/loop3
1 1 7 2 1 active sync /dev/loop2
2 2 0 0 2 faulty removed
3 3 0 0 3 faulty removed
a@Nikita:~$ sudo mdadm --examine /dev/loop3
/dev/loop3:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Fri Nov 26 23:48:06 2010
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 2
Spare Devices : 0
Checksum : 53f88908 - correct
Events : 2369019

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 0 7 3 0 active sync /dev/loop3

0 0 7 3 0 active sync /dev/loop3
1 1 7 2 1 active sync /dev/loop2
2 2 0 0 2 faulty removed
3 3 0 0 3 faulty removed
a@Nikita:~$ sudo su -
root@Nikita:~# mdadm --assemble /dev/md1 --force /dev/loop0 /dev/loop1 /dev/loop2 /dev/loop3
mdadm: cannot open device /dev/loop0: Device or resource busy
mdadm: /dev/loop0 has no superblock - assembly aborted
root@Nikita:~#
[/more]
Автор: S4astliff4ik
Дата сообщения: 03.12.2010 14:12
http://uragana.ru/2009/04/rescue-raid-lvm/

вот статья интересная

Добавлено:
Пошло восстановление. Что получится - отпишусь.
Автор: goletsa
Дата сообщения: 03.12.2010 15:39
S4astliff4ik

Цитата:
не получается
Подробнее...
А вот история команд
Подробнее...

Паранормально ибо массив на первом диске видится.
Но реально достаточно трех дисков.

Цитата:
Пошло восстановление. Что получится - отпишусь.

rebuild или именно восставновление данных?
Автор: S4astliff4ik
Дата сообщения: 06.12.2010 09:58
массив создался. Но его ни открыть. Ничего сделать с ним нельзя. Что можно ещё посмотреть?
Автор: goletsa
Дата сообщения: 06.12.2010 15:38
S4astliff4ik
Непонял. Вы все таки rebuild делали?
Автор: S4astliff4ik
Дата сообщения: 06.12.2010 15:42
goletsa
[more]
a@Nikita:~$ sudo losetup /dev/loop0 /media/4d8641bd-7f17-46e2-9667-6cc56f690e3e/wd/1/disk1_part4_data.part
[sudo] password for a:
a@Nikita:~$ sudo losetup /dev/loop1 /media/4d8641bd-7f17-46e2-9667-6cc56f690e3e/wd/2/disk2_part4_data.part
a@Nikita:~$ sudo losetup /dev/loop2 /media/90fa1edf-291b-4ee1-8a4f-6d09e23b9ed2/wd/3/disk3_part4_data.part
a@Nikita:~$ sudo losetup /dev/loop3 /media/ef34dbab-b74d-4b6d-9b5b-53e5be4132db/wd/4/disk4_part4_data.part
a@Nikita:~$ mdadm --examine /dev/loop0
mdadm: cannot open /dev/loop0: Permission denied
a@Nikita:~$ sudo mdadm --examine /dev/loop0
/dev/loop0:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Thu Sep 23 04:42:35 2010
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 53a30f01 - correct
Events : 2369014

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 3 8 52 3 active sync

0 0 8 4 0 active sync
1 1 8 20 1 active sync
2 2 8 36 2 active sync
3 3 8 52 3 active sync
a@Nikita:~$ sudo mdadm --examine /dev/loop1
/dev/loop1:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Thu Sep 23 04:42:35 2010
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 53a30eef - correct
Events : 2369014

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 2 8 36 2 active sync

0 0 8 4 0 active sync
1 1 8 20 1 active sync
2 2 8 36 2 active sync
3 3 8 52 3 active sync
a@Nikita:~$ sudo mdadm --examine /dev/loop2
/dev/loop2:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Fri Nov 26 23:48:06 2010
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 2
Spare Devices : 0
Checksum : 53f88909 - correct
Events : 2369019

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 1 7 2 1 active sync /dev/loop2

0 0 7 3 0 active sync /dev/loop3
1 1 7 2 1 active sync /dev/loop2
2 2 0 0 2 faulty removed
3 3 0 0 3 faulty removed
a@Nikita:~$ sudo mdadm --examine /dev/loop3
/dev/loop3:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Fri Nov 26 23:48:06 2010
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 2
Spare Devices : 0
Checksum : 53f88908 - correct
Events : 2369019

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 0 7 3 0 active sync /dev/loop3

0 0 7 3 0 active sync /dev/loop3
1 1 7 2 1 active sync /dev/loop2
2 2 0 0 2 faulty removed
3 3 0 0 3 faulty removed
a@Nikita:~$ sudo su -
root@Nikita:~# mdadm --assemble /dev/md1 --force /dev/loop0 /dev/loop1 /dev/loop2 /dev/loop3
mdadm: cannot open device /dev/loop0: Device or resource busy
mdadm: /dev/loop0 has no superblock - assembly aborted
root@Nikita:~# mdadm --assemble /dev/md1
mdadm: /dev/md1 not identified in config file.
root@Nikita:~# mdadm --assemble /dev/md0
mdadm: /dev/md0 not identified in config file.
root@Nikita:~# mdadm --assemble --scan
mdadm: /dev/md2 assembled from 2 drives - not enough to start the array.
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : inactive loop3[0](S) loop0[3](S) loop1[2](S) loop2[1](S)
3901192192 blocks

unused devices: <none>
root@Nikita:~# mdadm --assemble /dev/md2 --force /dev/loop0 /dev/loop1 /dev/loop2 /dev/loop3
mdadm: forcing event count in /dev/loop1(2) from 2369014 upto 2369019
mdadm: forcing event count in /dev/loop0(3) from 2369014 upto 2369019
mdadm: clearing FAULTY flag for device 1 in /dev/md2 for /dev/loop1
mdadm: clearing FAULTY flag for device 0 in /dev/md2 for /dev/loop0
mdadm: failed to add /dev/loop2 to /dev/md2: Device or resource busy
mdadm: /dev/md2 has been started with 3 drives (out of 4).
root@Nikita:~# mkdir /olddata/
root@Nikita:~# mount -t ext3 /dev/md2 /olddata/
mount: wrong fs type, bad option, bad superblock on /dev/md2,
missing codepage or helper program, or other error
В некоторых случаях полезная информация может быть
найдена в syslog - попробуйте dmesg | tail или что-то
в этом роде

root@Nikita:~# ls /olddata/
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[4] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/3] [U_UU]
[>....................] recovery = 2.1% (20890980/975097920) finish=548.5min speed=28989K/sec

unused devices: <none>
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[4] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/3] [U_UU]
[>....................] recovery = 2.9% (28850416/975097920) finish=527.6min speed=29889K/sec

unused devices: <none>
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[4] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/3] [U_UU]
[=>...................] recovery = 7.5% (74025028/975097920) finish=500.3min speed=30013K/sec

unused devices: <none>
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[4] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/3] [U_UU]
[==>..................] recovery = 11.2% (109365488/975097920) finish=476.0min speed=30312K/sec

unused devices: <none>
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[1] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[1] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>
[/more]
Всё, что я "творил".

Добавлено:
goletsa
[more]
a@Nikita:~$ sudo losetup /dev/loop0 /media/4d8641bd-7f17-46e2-9667-6cc56f690e3e/wd/1/disk1_part4_data.part
[sudo] password for a:
a@Nikita:~$ sudo losetup /dev/loop1 /media/4d8641bd-7f17-46e2-9667-6cc56f690e3e/wd/2/disk2_part4_data.part
a@Nikita:~$ sudo losetup /dev/loop2 /media/90fa1edf-291b-4ee1-8a4f-6d09e23b9ed2/wd/3/disk3_part4_data.part
a@Nikita:~$ sudo losetup /dev/loop3 /media/ef34dbab-b74d-4b6d-9b5b-53e5be4132db/wd/4/disk4_part4_data.part
a@Nikita:~$ mdadm --examine /dev/loop0
mdadm: cannot open /dev/loop0: Permission denied
a@Nikita:~$ sudo mdadm --examine /dev/loop0
/dev/loop0:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Thu Sep 23 04:42:35 2010
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 53a30f01 - correct
Events : 2369014

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 3 8 52 3 active sync

0 0 8 4 0 active sync
1 1 8 20 1 active sync
2 2 8 36 2 active sync
3 3 8 52 3 active sync
a@Nikita:~$ sudo mdadm --examine /dev/loop1
/dev/loop1:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Thu Sep 23 04:42:35 2010
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 53a30eef - correct
Events : 2369014

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 2 8 36 2 active sync

0 0 8 4 0 active sync
1 1 8 20 1 active sync
2 2 8 36 2 active sync
3 3 8 52 3 active sync
a@Nikita:~$ sudo mdadm --examine /dev/loop2
/dev/loop2:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Fri Nov 26 23:48:06 2010
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 2
Spare Devices : 0
Checksum : 53f88909 - correct
Events : 2369019

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 1 7 2 1 active sync /dev/loop2

0 0 7 3 0 active sync /dev/loop3
1 1 7 2 1 active sync /dev/loop2
2 2 0 0 2 faulty removed
3 3 0 0 3 faulty removed
a@Nikita:~$ sudo mdadm --examine /dev/loop3
/dev/loop3:
Magic : a92b4efc
Version : 00.90.00
UUID : 4a101905:f7fdb0d8:0d56ccfb:89ce6f17
Creation Time : Wed Jun 24 14:03:40 2009
Raid Level : raid5
Used Dev Size : 975097920 (929.93 GiB 998.50 GB)
Array Size : 2925293760 (2789.78 GiB 2995.50 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Fri Nov 26 23:48:06 2010
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 2
Spare Devices : 0
Checksum : 53f88908 - correct
Events : 2369019

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 0 7 3 0 active sync /dev/loop3

0 0 7 3 0 active sync /dev/loop3
1 1 7 2 1 active sync /dev/loop2
2 2 0 0 2 faulty removed
3 3 0 0 3 faulty removed
a@Nikita:~$ sudo su -
root@Nikita:~# mdadm --assemble /dev/md1 --force /dev/loop0 /dev/loop1 /dev/loop2 /dev/loop3
mdadm: cannot open device /dev/loop0: Device or resource busy
mdadm: /dev/loop0 has no superblock - assembly aborted
root@Nikita:~# mdadm --assemble /dev/md1
mdadm: /dev/md1 not identified in config file.
root@Nikita:~# mdadm --assemble /dev/md0
mdadm: /dev/md0 not identified in config file.
root@Nikita:~# mdadm --assemble --scan
mdadm: /dev/md2 assembled from 2 drives - not enough to start the array.
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : inactive loop3[0](S) loop0[3](S) loop1[2](S) loop2[1](S)
3901192192 blocks

unused devices: <none>
root@Nikita:~# mdadm --assemble /dev/md2 --force /dev/loop0 /dev/loop1 /dev/loop2 /dev/loop3
mdadm: forcing event count in /dev/loop1(2) from 2369014 upto 2369019
mdadm: forcing event count in /dev/loop0(3) from 2369014 upto 2369019
mdadm: clearing FAULTY flag for device 1 in /dev/md2 for /dev/loop1
mdadm: clearing FAULTY flag for device 0 in /dev/md2 for /dev/loop0
mdadm: failed to add /dev/loop2 to /dev/md2: Device or resource busy
mdadm: /dev/md2 has been started with 3 drives (out of 4).
root@Nikita:~# mkdir /olddata/
root@Nikita:~# mount -t ext3 /dev/md2 /olddata/
mount: wrong fs type, bad option, bad superblock on /dev/md2,
missing codepage or helper program, or other error
В некоторых случаях полезная информация может быть
найдена в syslog - попробуйте dmesg | tail или что-то
в этом роде

root@Nikita:~# ls /olddata/
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[4] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/3] [U_UU]
[>....................] recovery = 2.1% (20890980/975097920) finish=548.5min speed=28989K/sec

unused devices: <none>
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[4] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/3] [U_UU]
[>....................] recovery = 2.9% (28850416/975097920) finish=527.6min speed=29889K/sec

unused devices: <none>
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[4] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/3] [U_UU]
[=>...................] recovery = 7.5% (74025028/975097920) finish=500.3min speed=30013K/sec

unused devices: <none>
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[4] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/3] [U_UU]
[==>..................] recovery = 11.2% (109365488/975097920) finish=476.0min speed=30312K/sec

unused devices: <none>
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[1] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>
root@Nikita:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid5 loop2[1] loop3[0] loop0[3] loop1[2]
2925293760 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>
[/more]
Всё, что я "творил".

Добавлено:
сейчас в дисковых устройствах создан Raid5 на 3ТБ . Устройство dev/md2 . Состояние - запущен. Действие - простаивает.

Добавлено:
Могу правда вот,что с ним сотворить :
-Остановить массив
-Проверить массив
-форматировать
-редактировать
Автор: goletsa
Дата сообщения: 07.12.2010 17:15
Чота у меня руборда на 2 дня ломалась, сайт не открывало.
Судя по той статье надо поднять LVM.

Код:
Загружаем модуль

root@ubuntu:/home/ubuntu# modprobe dm-mod
Активируем LVM:

root@ubuntu:/home/ubuntu# vgchange -a y
1 logical volume(s) in volume group "files" now active
root@ubuntu:/home/ubuntu#
Проверяем какие logical volumes у нас есть:

root@ubuntu:/home/ubuntu# lvscan
ACTIVE '/dev/files/filesrv' [700,00 GB] inherit
root@ubuntu:/home/ubuntu#
Автор: S4astliff4ik
Дата сообщения: 08.12.2010 10:25

Цитата:
Чота у меня руборда на 2 дня ломалась, сайт не открывало.

то же самое

Я вроде всё сделал по статье - даже скопировал часть файлов на ЛОКАЛЬНЫЙ диск ( тот который остался от 500 ГБ) , а вот через сеть на новый WD ну, никак не могу скопировать файлы.

Пишет - указанная цель не является каталогом .

Что - делать , голову сломал.
Автор: goletsa
Дата сообщения: 08.12.2010 11:09
S4astliff4ik
А вы по какому протоколу подключали внешний NAS?
Поидее можно через mc по ftp запульнуть файлы.
Автор: S4astliff4ik
Дата сообщения: 08.12.2010 11:23

Цитата:
А вы по какому протоколу подключали внешний NAS?

Я практик.

Цитата:
Поидее можно через mc по ftp запульнуть файлы.

ДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААА
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Идёт копирование.

МНОГОУВАЖАЕМЫЙ goletsa , спасибо вам за помощь, советы. Спасибо,что были рядом.

Процесс пошёл. О результатах - отпишусь.

Но факт, что данные копируются!
Автор: vermut78
Дата сообщения: 05.02.2011 14:31
3TB диски wd в sharespace будут работать, может кто проверял уже?
Автор: goletsa
Дата сообщения: 05.02.2011 15:16
наврятли. диски там в mbr разбиты так что не думаю что больше 2тб умеет.
плюс неизвестно умеет ли чип такие диски
Автор: vermut78
Дата сообщения: 10.02.2011 10:40
goletsa
Про 10-pin http://westerndigital.nas-central.org/wiki/Category:ShareSpace#Serial_Access
Автор: dtr
Дата сообщения: 15.08.2011 17:15
у меня такая же беда, как у S4astliff4ik

Связался с саппортом вд, посоветовали следующее

To use Ubuntu, attach the drives to the SATA ports, put the LiveCD into the DVD tray and boot up the computers.
Once booted search for the Disk Utility (Gnome Disk utility) and you will be able to see the 3 RAID arrays called md0, md1 and md2. The first two are RAID 1 mirrors containging the operating system partition, the third one called md2 is the RAID 5 array.

The options on the interface are quite self explanatory, there is a button that allows to scan and rebuild the array.

Сам я пытался восствновить под вендой при помощи r-studio, runtime RAID Reconstructor. но безуспешно, в первой я так и не смог мобрать виртуальный раид, во второй примерно тоже самое.

Тогда было решено взять вторую WD ShareSpace и сунуть туда 3 старых харда и восстановить раид, но это не прошло. Коробка не заводилась со старыми хардами.

Вообщем по результату отпишусь
Автор: goletsa
Дата сообщения: 15.08.2011 17:28
dtr

Цитата:
Коробка не заводилась со старыми хардами.

ОС тоже побилась получается.
Автор: afand
Дата сообщения: 11.09.2011 10:48
Добрый день!
У меня подобная ситуация. Прочитав информацию по восстановлению, решил своими руками попытаться восстановить данные.
Я споткнулся на моменте создания образов с помощью R-Studuo. Нет, образы я сделал и сохранил их на сетевом сервере QNAP. Но записать сами образы (расширение .dsk) на жесткий диск не получается. Что посоветуете?
Автор: goletsa
Дата сообщения: 11.09.2011 11:13
afand

Цитата:
Добрый день!
У меня подобная ситуация. Прочитав информацию по восстановлению, решил своими руками попытаться восстановить данные.
Я споткнулся на моменте создания образов с помощью R-Studuo. Нет, образы я сделал и сохранил их на сетевом сервере QNAP. Но записать сами образы (расширение .dsk) на жесткий диск не получается. Что посоветуете?

Использовать упомянутые в топике dd\linux и иже с ним так как в накопителе использован embedded linux.
Автор: afand
Дата сообщения: 11.09.2011 11:49
Спасибо за то, что откликнулись! Буду пробовать.
Автор: ada01
Дата сообщения: 18.10.2011 16:02
Зарегистрировался специально для того чтобы поблагодарить участников ветки в решении проблемы. было подобное, но удалось вытащить данные благодаря описанным командам и утилитке TestDisk 6.13 из RIPlinux. Кстати съэкономил для нашей небольшой фирмы 80круб, которые запросили профессиональные восстановители из mhdd.ru
Автор: Manhattan sandy
Дата сообщения: 19.11.2011 21:22
Парни помогите. Данная железка сразу была распродана (винты по 1 тб). Винты я поменял на 2 тб wd20earx. Не могу зайти на устройство. Как можно восстановить веб интерфейс.
Автор: Manhattan sandy
Дата сообщения: 20.11.2011 06:37
Сам задал вопроc, сам ответил. Короче, затык загрузки раньше был в размере кластера, винты не формачены были. Форматнул по 4кб просто на компе, и все веб появился. Надеюсь это поможет другим.
Автор: Nero2002
Дата сообщения: 22.02.2012 08:00
Нужна помощь в настройке WD ShareSpace 8Тб. Потребовалось завести его в домен, в котором имеется траст с другим доменом. Через веб-морду завел его в основной домен, затем подключился по SSH, поправил smb.conf, трастовый домен увиделся. Все ок. Дальше стояла еще одна задача - настроить аудит. И тут я обнаружил, что модуля аудита full_audit нет в базовой прошивке в принципе. Может кто знает где его можно взять под платформу Linux 2.6.12.6-arm1 ? В инете все перерыл. Под ARM платформу для Samba 3.0.34 модуль нашел, но при попытке инициализации модуля получаю в логе следующее:

Код:
[2012/02/22 11:48:12, 0] smbd/vfs.c:smb_register_vfs(76)
VFS module full_audit already loaded!
[2012/02/22 11:48:12, 0] lib/module.c:do_smb_load_module(69)
Module '/usr/lib/samba/vfs/full_audit.so' initialization failed: NT_STATUS_OBJECT_NAME_COLLISION
[2012/02/22 11:48:12, 0] smbd/vfs.c:vfs_init_custom(155)
Can't find a vfs module [/usr/lib/samba/vfs/full_audit.so]
[2012/02/22 11:48:12, 0] smbd/vfs.c:smbd_vfs_init(280)
smbd_vfs_init: vfs_init_custom failed for /usr/lib/samba/vfs/full_audit.so
[2012/02/22 11:48:12, 0] smbd/service.c:make_connection_snum(863)
vfs_init failed for service Share
Автор: Nero2002
Дата сообщения: 26.02.2012 18:14
Таки нашел и подсунул нужный файл из следующей сборки под arm:
ftp://ftp.netbsd.org/pub/pkgsrc/packages/NetBSD-4.0/acorn26/All/samba-3.0.34nb2.tgz

Заработало!
Автор: vadila2000
Дата сообщения: 17.04.2012 11:02
For Nero2002
Можно вас попросить выложить сюда smb.conf для доменной структуры или
рабочей группы без запроса аутентификации.
Встроенными стредствами веб интерфейса подключаем sharespace в домен,
и он захватывает роль master browser на себя, начинается кошмар,
локализованные имена выглядят машинными символами, вывод устройства
из домена в рабочую группу приводит при обращении по сети запрос
логина + пароля. Хард ресет не спасает.

PS. В Linux не спец, но разобраться очень хочется... )))
Автор: AKazak
Дата сообщения: 25.07.2012 22:49

Цитата:
Про 10-pin http://westerndigital.nas-central.org/wiki/Category:ShareSpace#Serial_Access

Привет, счастливым обладателям коробочки!
У кого-нибудь получилось подключиться по этому методу?
Автор: AKazak
Дата сообщения: 05.01.2013 11:28
В официальной прошивке 2.3.02 всего одно улучшение:
Fixed the Master Browser level in the Samba configuration.

Объясните, пожалуйста, что это значит и как понять нужно ли устанавливать это обновление.
Автор: goletsa
Дата сообщения: 07.01.2013 14:04
AKazak
Для доменов скорее актуально, для домашенего использования думаю все равно.
Автор: AKazak
Дата сообщения: 08.01.2013 11:32
goletsa
А если вкратце, в чём суть?
Автор: goletsa
Дата сообщения: 08.01.2013 15:07
AKazak
У меня нет устройства чтобы делать дифы между версиями
Но скорее всего подкрутли настройки конфига
http://www.samba.org/samba/docs/man/Samba-HOWTO-Collection/NetworkBrowsing.html
Автор: millenium
Дата сообщения: 04.01.2014 17:35
Доброго времени суток всем.
Перед новым годом у начальника сдох WD ShareSpace на 8TB.
В нем 4 HDD WD20EARS. Массив рассыпался из-за одного винта, сама коробка жужжит, но в вэб-интерфейс не пускает. Путем поочередного тестирования поверхности HDD утилитой HDTune, выявил сбойный винт(пошло переназначение секторов).
Важные данные я уже скинул. Подключил HDD к своему ПК и загрузился с Live USB Ubuntu. Утилитой MDADM собрал массив и он появился в списке дисков ОС.
Вопрос - как мне теперь заменить винт на рабочий, чтобы массив не порушить?

Страницы: 12345

Предыдущая тема: Проблема с WD10EARS


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.