Ru-Board.club
← Вернуться в раздел «UNIX»

» LVM и RAID-5, избыточность и расширяемость

Автор: iltmpz
Дата сообщения: 04.07.2008 21:56
Поставил сегодня на сервер OpenSUSE Linux 11, начал разбираться, как лучше организовать хранилище.
есть 4 диска SATA по 750 Гб, нужна минимальная избыточность и максимальный объем.
Соотв. хочу сделать программный RAID-5.

Но возник вопрос: вроде бы есть такая замечательная технология - LVM, она позволяет в будущем наращивать массив новыми дисками. А у меня как раз есть такое желание.
Но проблема в том, что LVM не обеспечивает избыточности типа RAID-5 (во всяком случае, я не нашел, как это делать).

Однако, как я понял, многие совмещают технологии RAID-5 и LVM, но я не могу понять, как это сделать.
Иначе говоря, вопрос, возможно ли такое?
1 логический раздел (по объему как 3 диска), избыточность за счет 4-го диска и возможность наращивать массив без удаления всех данных (еще лучше было бы и без отключения раздела)
Автор: sendmoreinfo
Дата сообщения: 05.07.2008 11:14

Цитата:
многие совмещают технологии RAID-5 и LVM, но я не могу понять, как это сделать.


У них RAID-5 делает контроллер, который к тому же поддерживает online capacity expansion. Для сильных духом существует mdadm --grow + resize2fs/ext2online
Автор: Harliff
Дата сообщения: 05.07.2008 13:47
Поднять рейд-5 при помощи mdadm, поверх него поднять lvm, и использовать нормально относящиеся к увеличению размера файловые системы (reiserfs, например). Потребуется отдельный /boot раздел и правильный initrd...

Тема загрузки этого хозяйства --- отдельная, я этим не занимался. Попробуй, погляди http://gentoo-wiki.com/Special:Search?search=raid&go=Go
Автор: iltmpz
Дата сообщения: 24.07.2008 11:49
Спасибо, продолжаю заниматься хранилищем:
(пока экспериментирую на vmware, на реальном сервере он похоже делает rebuild после --grow порядка суток)
Сделал так: создал программный RAID-5, на нем reiserfs.
После добавления нового HDD добавляю его в raid (mdadm --grow ), потом делаю resize_reiserfs, и все работает, причем в "горячем" режиме - без остановки.

Получается, LVM мне не нужен совершенно, или я неправ?
Что мне могло бы дать использование LVM?
Автор: Borgia
Дата сообщения: 27.07.2008 07:58

Цитата:
Получается, LVM мне не нужен совершенно, или я неправ?
Что мне могло бы дать использование LVM?


не совсем. вопрос что вы собираетесь делать. Просто на рейде вы сможете разруливать дисковым пространством на уровне партиций которые создадите например с фдиск. И в дальнейшем их например изменить достаточно проблемотично. С LVM например вы работаете на уровне логических томов и соответсвеноо вся работа с дисковым массивом намного проще и гибче. Добавить . увеличить . уменьшить. переместить и тд.
Автор: iltmpz
Дата сообщения: 28.07.2008 15:20
Borgia

Цитата:
С LVM например вы работаете на уровне логических томов и соответсвеноо вся работа с дисковым массивом намного проще и гибче. Добавить . увеличить . уменьшить. переместить и тд.

Не совсем понимаю: LVM же это промежуточный слой - т.е. сначала надо увеличить/уменьшить его, а потом уже на нем изменить размер самой ФС? А изменить размер ФС можно только средствами самой ФС. Или не так?
Автор: slackerman
Дата сообщения: 31.07.2008 19:26
Так. Насчет рейда пятерки.
Штука чертовски плохая и нужна была лишь когда харды дорого стоили. Особенно програмный. Советую низачто не ставить!!!!!!!!!
Причины 2.
Причина 1:
Программная пятерка (не буду вдаваться в подробности дабы не запутать и не запутаться) очень сильно изнашивает диски. Очень!!
Причина 2:
При вылете 1 харда из пятерки остальные три насилутся в таком объеме что могут выйти и, были прецеденты, выходили за 2-3 дня. То есть выходит из строя один хард. система юзает оставшиеся. Но поскольку теперь для того что бы прочитать 1 файл ей надо прочитать и зачастую не 1 раз все оставшиеся диски сами понимаете как юзаются харды. Скажу честно коснуться их нельзя.

Лучше всего тебе потратить 10 долларов на дешевый рейд контроллер и организовать на нем 1+0 или десятку в простонародье. Полезное пространство у тебя от 4 хардов получится 3 харда. Скорость чтения записи возрастет раза в 1.2 - 1.3 может и больше если потратишься на полностью аппаратный контроллер (но это уже не 10-20 баксов и даже не 100).

Насчет ЛВМ и что с ним можно делать.
ЛВМ позволяет делать полностью маштабируемые разделы. То есть ты можешь даже на лету менять размер жесткого диска (хотя я бы не советовал)
Что бы поменять размер раздела с экст3 (рейзер я бы не стал юзать - велик шанс на рейде потерять инфу).
следует всего лишь добавить новый винт, массив или хз что там с помощью pvcreate далее с помощью lvresize сменить размер (можно через "+"указывать размер что бы указать не новый размер а сколько к текущему хочешь добавить. то есть lvresize -L+750G.... добавит 750гигов) далее размонтировать логический лвм том и натравить на него resize2fs и смонтировать обратно. Следовательно рекомендую корневой раздел отделить от раздела с хранилищем. что бы не ребутаться лишний раз.
Автор: vlader2004
Дата сообщения: 02.08.2008 09:48
Хочешь дешево и сердито? Посмотри в сторону ZFS на Solaris. Дисковые разделы сможешь отдавать Линуксу по iSCSI.
Автор: lek
Дата сообщения: 02.08.2008 11:21
slackerman


Цитата:
1+0 или десятку в простонародье. Полезное пространство у тебя от 4 хардов получится 3 харда.


почему 3? ведь будет 2
Автор: Harliff
Дата сообщения: 03.08.2008 01:13

Цитата:
Хочешь дешево и сердито? Посмотри в сторону ZFS на Solaris. Дисковые разделы сможешь отдавать Линуксу по iSCSI.


Ха! Я конечно не спец по солярке и ZFS, но как вообще можно раздавать файловую систему по iSCSI ??? Дисковые разделы --- да, пожалуйста. Тома LVM или что там в качестве аналога в Solaris --- да, запросто. Но при чем тут файловая система? Тем более, не понимаемая линксом из коробки?

Да и про отдельный сервер топикстартер ничего не говорил.


Добавлено:

Цитата:
Так. Насчет рейда пятерки.
Штука чертовски плохая и нужна была лишь когда харды дорого стоили.

Рекомендую рассказать это производителям серверов, а то они не знают.


Цитата:

Особенно программный. Советую низачто не ставить!!!!!!!!!

В контексте твоего ответа не понятно, почему именно программный рейд нельзя. В чем принципиальная разница для используемых дисков --- аппаратный рейд используется или программный?


Цитата:

Программная пятерка (не буду вдаваться в подробности дабы не запутать и не запутаться) очень сильно изнашивает диски. Очень!!


А если в подробности все-таки вдаться? Или просто дай ссылку на то место, где делаются соответсвующие тесты или хотя бы об этом рассказывается.


Цитата:

При вылете 1 харда из пятерки остальные три насилутся в таком объеме что могут выйти и, были прецеденты, выходили за 2-3 дня.

И что-же это были за харды? И какая роль была у сервера?

Кстати, интересный тест для хардов ты придумал. Надо брать на вооружение ;)


Цитата:

То есть выходит из строя один хард. система юзает оставшиеся. Но поскольку теперь для того что бы прочитать 1 файл ей надо прочитать и зачастую не 1 раз все оставшиеся диски сами понимаете как юзаются харды. Скажу честно коснуться их нельзя.


Нельзя коснутся --- ты имел в виду, что очень горячие? Ну тогда чего же ты хотел, не обеспечив нормальног охлаждения хардам, запрягая их по полной? Что бы они при этом жили долго и счастливо, не смотря на нерабочую для них температуру?


Цитата:

Лучше всего тебе потратить 10 долларов на дешевый рейд контроллер и организовать на нем 1+0 или десятку в простонародье. Полезное пространство у тебя от 4 хардов получится 3 харда. Скорость чтения записи возрастет раза в 1.2 - 1.3 может и больше если потратишься на полностью аппаратный контроллер (но это уже не 10-20 баксов и даже не 100).

Присоединяюсь к вопросу lek'a. Почему при 4х хардах в 1+0 получается полезное пространство, равное трем хардам?


Цитата:

Насчет ЛВМ и что с ним можно делать.
ЛВМ позволяет делать полностью маштабируемые разделы. То есть ты можешь даже на лету менять размер жесткого диска (хотя я бы не советовал)

O_o КАК МОЖНО МЕНЯТЬ РАЗМЕР ЖЕСТКОГО ДИСКА??? Может быть, ты хотел сказать, размер PV?




Цитата:

Что бы поменять размер раздела с экст3 (рейзер я бы не стал юзать - велик шанс на рейде потерять инфу).

Давно и эффективно использую reiserfs 3.6. Все замечательно, потерь нет (ну, кроме писавшегося в последнюю секунду, но это и на ext3). В том числе при зависаниях системы (драйвер видюхи глючит) и внезапных ресетах. Ни разу за всю историю раздел не грохнулся.

Учитывая тормознутьсь и плохую масштабируемость ext3, я бы повнимательнее подумал о выборе fs для большой файлопомойки.


Цитата:

следует всего лишь добавить новый винт, массив или хз что там с помощью pvcreate далее с помощью lvresize сменить размер

Уважаемый, pvcreate не добавляет новый "винт, массив или хз что там" к VG. Нужно после pvcreate делать еще и vgextend, и только после этого lvresize


Цитата:

(можно через "+"указывать размер что бы указать не новый размер а сколько к текущему хочешь добавить. то есть lvresize -L+750G.... добавит 750гигов)


Ага, +750 гигов на ext3. Пять балов... У вас на этом ext3 никогда иноды не заканчивались? Еще раз: если нужна гибкость, то есть 2 пути.

Первый путь: НЕ использовать ext2/ext3. Брать fs, нормально масштабирующуюся (у меня есть положительный опыт с reiserfs, но можно еще посмотреть в сторону jfs (лично не использовал, много хороших отзывов). xfs не рекомендую, много нареканий и историй с умершими данными).

Второй путь: грамотно планировать ресурсы при создании раздела с ext2/ext3 (инодов сделать МНОГО заранее. man tune2fs). Ибо потом бэкапить 750 с лишним гигов и пересоздавать раздел с ext3 --- удовольствие не большое.


Цитата:

далее размонтировать логический лвм том и натравить на него resize2fs и смонтировать обратно. Следовательно рекомендую корневой раздел отделить от раздела с хранилищем. что бы не ребутаться лишний раз.

1. Интереса ради, а как сделать это для / ? ;) Хотя можно в single / в ro перевести, давно ext2/3 не ресайзил.
2. Зачем размонтировать? Откройте для себя http://ext2resize.sourceforge.net/online.html (если уж Вы намерены ext3 использовать).

Короче, учите матчасть, а то в форумах понасоветуют...

PS. Прошу прощения за опечатки, в темноте непривычно печатать.
Автор: Harliff
Дата сообщения: 03.08.2008 07:49

Цитата:
Так. Насчет рейда пятерки.
Штука чертовски плохая


Кстати да, пятерка не спасает от вылета болеее одного диска. Мои знакомые после падения пятерки, удачно совпавшим с затирианием бэкапов использую исключительно шестерку (RAID-6).

В шестерке работоспособность обеспечивается при выходе из строя двух дисков.

Так же, полезно будет держать один хард в горячем резерве. И пользовать smartd.
Автор: vlader2004
Дата сообщения: 03.08.2008 08:50
Harliff

> Ха! Я конечно не спец по солярке и ZFS, но как вообще можно раздавать файловую систему по iSCSI ??? Дисковые разделы --- да, пожалуйста. Тома LVM или что там в качестве аналога в Solaris --- да, запросто. Но при чем тут файловая система? Тем более, не понимаемая линксом из коробки?

А ты открой Гугль и почитай, как люди раздают ZFS-пулы по iSCSI Смотри и спецом станешь.

Автор: Harliff
Дата сообщения: 03.08.2008 10:26

Цитата:
А ты открой Гугль и почитай, как люди раздают ZFS-пулы по iSCSI Смотри и спецом станешь.


Спасибо, посмотрю. Тем не менее, ты подсткажи топикстартеру, чем раздача ZFS-пулов по iSCSI в солярке лучше раздачи LV по iSCSI в линуксе.
Автор: iltmpz
Дата сообщения: 04.08.2008 11:09
slackerman
vlader2004
lek
Harliff
Ну, раз уж возникло такое активное обсуждение, начну сначала:

Есть 500Гб данных исключительной важности - они хранятся в нормальном хранидище (SAN). Помимо избыточности самого RAID в SAN необходимо еще делать бекапы. Защита от вирусов, человеческих факторов, разрушения ФС и т.п.

Собственно, для бекапов и делаю сабж.

Значит, получаются требования к хранилищу бекапов:
Емкость - чем больше, тем лучше - дополнительная пара копий данных будут нелишними.
Скорость - непринципиально - записалось бы 500Гб на ночь, и ладно (хотя с этим похоже тоже могут возникнуть проблемы).
Отказоустойчивость - бепакы для нас не роскошь, а суровая необходимость. Поэтому RAID-0 делать не хочется, хотя исключительной ценности (чтобы делать RAID-6) нет.

На самом деле raid-контроллер есть - на 8 SATA-портов.

Как я выбирал конфигуцию хранилища бекапов:
Диски - выбрал самые дешевые: 750Гб, SATA, 3.5"
RAID - программный или аппаратный? Я выбрал программный и вот почему:
1. Я не очень знаю linux - хз как там отслеживать вылет диска из RAID на уровне контроллера, а мониторить программный md0 я умею лучше.
2. Контроллер не поддерживает изменение размера RAID, а у меня сейчас есть только 5 дисков, которые можно выделить в RAID, на остальных - данные. В отличие от аппаратного >RAID-5 в программном опция --grow есть.
3. Если вдруг мне понадобится более 8 дисков, достаточно будет воткнуть 2-й SATA-контроллер и сделать --grow, а с аппаратным так не получится.
4. Исходя из принципа "все, что может сломаться рано или поздно сломается", предположим, что накрылся аппаратный контроллер. Что делать с данными? Придется искать точно такой же контроллер, а если не найдем? Или если выйдет новая модель - более надежная и производительная, но несовместимая? Данные потеряны?


Однако теперь я уже не знаю, что делать:
slackerman

Цитата:
Насчет рейда пятерки.
Штука чертовски плохая и нужна была лишь когда харды дорого стоили. Особенно програмный. Советую низачто не ставить!!!!!!!!!

Не знаю, я тоже первый раз слышу о каких-то проблемах с RAID-5. Проблемы именно с программным или с аппаратным тоже?

Цитата:
сами понимаете как юзаются харды. Скажу честно коснуться их нельзя.

Корпус неполохой - вентиляторы со всех сторон - диски щупал - они холодные. Конечно, может они и вылетают за 2-3 дня потому что без охлаждения?
vlader2004

Цитата:
Посмотри в сторону ZFS на Solaris. Дисковые разделы сможешь отдавать Линуксу по iSCSI.

Как я понимаю, это надо поставить отдельный сервак, поднять на нем ФС и раздавать по сети?
Так у меня и так отдельный сервак на SUSE, как раз для хранения бекапов - вот его-то я и настраиваю.

lek

Цитата:
почему 3? ведь будет 2

Видимо опечатка...

Harliff
Вот и у меня возникло много вопросов относительно сообщения slackerman, но мало ли что - вдруг все и правда так плохо...

Цитата:
Кстати да, пятерка не спасает от вылета болеее одного диска. Мои знакомые после падения пятерки, удачно совпавшим с затирианием бэкапов использую исключительно шестерку (RAID-6).

В шестерке работоспособность обеспечивается при выходе из строя двух дисков.

Вопрос на правах оффтопа: а насколько вероятно падение пятерки?
Честно говоря, не могу представить ситуацию, когда вытелает сразу 2 диска.
Имхо, тут возможно 2 ситуации: когда сервер со стола упал, но тогда и больше 2 дисков вылетит или когда RAID никто не мониторил, вылетел диск, а потом через 3 месяца еще 1. Но тогда тоже RAID-6 не спасет.
Я запасной хард собираюсь держать в тумбочке в резерве, чтобы не крутился зря. Чуть что - заменю.


Добавлено:

Цитата:
Насчет ЛВМ и что с ним можно делать.
ЛВМ позволяет делать полностью маштабируемые разделы. То есть ты можешь даже на лету менять размер жесткого диска (хотя я бы не советовал)
Что бы поменять размер раздела с экст3 (рейзер я бы не стал юзать - велик шанс на рейде потерять инфу).


Цитата:
Ага, +750 гигов на ext3. Пять балов... У вас на этом ext3 никогда иноды не заканчивались? Еще раз: если нужна гибкость, то есть 2 пути.

Первый путь: НЕ использовать ext2/ext3. Брать fs, нормально масштабирующуюся (у меня есть положительный опыт с reiserfs, но можно еще посмотреть в сторону jfs (лично не использовал, много хороших отзывов). xfs не рекомендую, много нареканий и историй с умершими данными).


Насчет ФС - выбрал reizer по единственной причине - resize вроде как поддерживается изначально.
Про ext3 - хз, вроде resize есть, но не знаю, насколько хорошо работает.

Вот про LVM так не понял вообще, зачем это чудо надо.
Все равно же прослойка. Все равно когда воткну новый диск придется сначала сделать mdadm --grow, а в конце resize ФС.
Единственный смысл, который вижу от LVM - аналог RAID типа JBOD - который без избыточности. Ну плюс всякие снапшоты или что оно там еще умеет, но мне оно без надобности.
Автор: iltmpz
Дата сообщения: 08.08.2008 10:36
Ну вот, доигрался. Вчера из софтверного RAID'а выпал 1 диск, почти сутки восстанавливался, в результате весь развалился, остался 1 диск:

Код:
kernel: aacraid: Host adapter abort request (6,0,0,0)
kernel: aacraid: Host adapter abort request (6,0,4,0)
kernel: aacraid: Host adapter abort request (6,0,2,0)
kernel: aacraid: Host adapter abort request (6,0,1,0)
kernel: aacraid: Host adapter abort request (6,0,3,0)
syslog-ng[2551]: last message repeated 3 times
aacraid: Host adapter reset request. SCSI hang ?
aacraid: SCSI bus appears hung
...
sd 6:0:4:0: Device offlined - not ready after error recovery
sd 6:0:2:0: Device offlined - not ready after error recovery
sd 6:0:1:0: Device offlined - not ready after error recovery
sd 6:0:3:0: Device offlined - not ready after error recovery
Автор: tankistua
Дата сообщения: 09.08.2008 00:00
да вот как-бы сложно рассчитывать на софтовый рейд.

Ты сидишь и думаешь, что у тебя все в ажуре - а тут оп - и бантики с рюшечками. Лучше уж четкий бекап с осознаванием всей ситуации и потерей времени на восстановление. Но главное - восстановление возможно на 99,99%
Автор: iltmpz
Дата сообщения: 09.08.2008 03:08
Ну, с хардверным рейдом тоже не все ясно. Система его видит, массив показывает, но вот как понять что он развалился?
Искал что-нибудь интересное про degraded в /proc и в логах, и на консоли - ничего не видно.
Выдернул диск из массива, так серверу хоть бы что - никаких признаков неполадок.
Контроллер, конечно, запищал, но серверная далеко - что мне туда, каждый день ходить слушать, не пищит ли что? Так и 6-й рейд не спасет, не то что 5-й.

А бекап да - собственно для бекапов все это и делаю
Автор: iltmpz
Дата сообщения: 17.08.2008 13:13
Разобрался с аппаратным RAID - скачал софтину от производителя (Adaptec Storage Manager for Linux), поставил - она отлично работает - сразу показала, что массив degraded - диск из него выпал.
У меня получается такая картина: из 5 дисков 1 как-то подозрительно громко щелкал, а теперь сдох. 2-й диск показывает smart error, хотя работает. 3-й диск тоже слегка щелкает...

Да, неважные 750-ки делают...
Автор: vlader2004
Дата сообщения: 30.08.2008 22:39
Иметь SAN и данные исключительной важности и при этом писать бекапы на софтовый рейд? Да вы, батенька, извращенец

Вот тебе несколько взрослых советов:

1 - Добавляешь еще один expantion в SAN-хранилище и создаваешь на нем отдельный array (или берешь готовый, если есть), потом "нарезаешь" раздел один-в-один с твоим важным разделом и задействуешь между разделами функцию remote mirror-copy. Получаешь онлайн-синхронизацию между разделами. При некоторой твоей прыткости второй раздел при недоступности первого сможет стать primary и спасти твою задачу от остановки

2 - В SAN ставишь Type Drive, поддерживающий 800Г/1600Г ленты и копируешь 500Г туда любым доступным способом

Автор: iltmpz
Дата сообщения: 01.09.2008 17:43
vlader2004

Цитата:
remote mirror-copy

это та же самая избыточность на случай отказа RAID - от вирусов, ошибок ФС и человеского фактора не спасет.

Ленты, это конечно хорошо, но зачем? Решение гораздо дороже, а вот насчет гибкости сомневаюсь:
SATA-диски можно воткнуть в любую машину в случае отказа системы - данные с них прочитаются.
Плюс я на них делаю бекапы системных дисков серверов (и рабочих станций), т.е. данные, которые лежат не на SAN.

В софтовом рейде я правда разочаровался, когда он развалился, так что создал аппаратный.
Работает нормально, хоть и не отлично (как раз сегодня из него выпал диск, как раз который показывал smart error, перезагрузил - восстанавливается).

Хотя такой способ хранения бекапов можно сказать мое ноу-хау, так что может быть я и не прав. Но что в нем плохого? Плохие диски поменяем - надеюсь, разваливаться не будет.
Автор: iltmpz
Дата сообщения: 01.09.2008 20:08
Нет, ну я безусловно понимаю, что подход не "взрослый". Но вот какие у него объективно недостатки?
Высокая производительность не нужна абсолютно, доступность 24/7 тоже не нужна.
Единственный критерий - надежность (чтобы рейд не развалился), хотя даже такую ситуацию мы переживем (если конечно в этот момент с SAN'ом ничего не случится). Но, думаю, это вопрос решаемый.

Стоимость же такого решения в разы ниже: 1 контроллер на 8 sata + 8 дисков + старенький сервер который "и так был".
И впридачу масса плюсов: произвольный доступ к данным бекапа, не надо менять картрижди с лентой, гибкая система чередования бекапов, просто временная свалка больших объемов данных и т.д.
Автор: vlader2004
Дата сообщения: 01.09.2008 21:09
Я тебе привел те способы резервирования данных, которые используются в крупнейшем банке Европы. Но ты можешь придумать свой индивидуальный способ хранения своих данных - я не против Как потеряешь свои данные - приходи, дам еще советов
Автор: iltmpz
Дата сообщения: 01.09.2008 22:05
ИМХО если кто-то организовал процесс так, а не иначе, то не надо тупо повторять его решение, не понимая смысла. Может быть, например, их руководство решило, что это "не по-взрослому", а объективных причин нет.

Вообще, как я понимаю, есть 2 пути: например решать вычислительные задачи с применением серверного железа или использовать рабочие станции (например, в кластере). Второй подход часто удобнее, и не только потому что дешевле. Например, у нас почему-то процент брака в серверах намного выше, чем в рабочих станциях. Возможно, последние лучше отлажены, потому что выше объемы производства.

Хотя конечно понаблюдаю, как дальше будет вести себя мой сервер бекапов - если что, может и купим потом tape drive (пока все равно уже на него денег не осталось).
Автор: durak_durakov
Дата сообщения: 23.04.2009 17:43

Цитата:

есть 4 диска SATA по 750 Гб, нужна минимальная избыточность и максимальный объем.
Соотв. хочу сделать программный RAID-5.

RAID-5 программный не есть хорошее решение.
Если сбой случится между записью на основной жесткий диск и записью на диск четности, то данные утеряются.
RAID-5 дает гарантию какую то только при использовании аккумуляторов в RAID-контроллерах.

Добавлено:

Цитата:
Однако, как я понял, многие совмещают технологии RAID-5 и LVM, но я не могу понять, как это сделать.

ZFS - это ваше решение - файловая система повышенной надежности с втроенным RAID-Z (аналог RAID-5, но без проблем ради которых требуются батарейки)
На сегодня ZFS это
Solaris,
OpenSolaris,
FreeBSD,
Nexenta

И даже готовое решение NexentaStor (до 1 Т - бесплатно)

Добавлено:

Цитата:
1. Интереса ради, а как сделать это для / ? Хотя можно в single / в ro перевести, давно ext2/3 не ресайзил.

А зачем / ресайзить?
Создавай корень сразу сколько надо с запасом. Операционная система не имеет тенденции много рости.
А вот раздел для данных - отдельный, конечно.


Добавлено:

Цитата:
Иметь SAN и данные исключительной важности и при этом писать бекапы на софтовый рейд? Да вы, батенька, извращенец

Дык нормально.
Навряд ли у него много SAN.
Бекап нужно держать на отдельном от production устройстве
Автор: Gar2k
Дата сообщения: 24.04.2009 09:37
durak_durakov во второй теме вижу соощение от вас насчет NexentaStor, урылся на их сайте не нашел где про бесплатно написано. И что насчет лицензии для коммерческого использования тоже бесплатно до 1т?

iltmpz не выйдет у вас ни чего, если инфа ценная то максимум 0+1.
Автор: AnDySs1
Дата сообщения: 24.04.2009 15:48
Gar2k

Цитата:
рылся на их сайте не нашел где про бесплатно написано.


Developer Edition
но не для production
Автор: vlader2004
Дата сообщения: 24.04.2009 17:00
Бекап так же важен, как и продуктивная система. Потому если в продуктиве используется SAN, а бекап идет на софтовый рейд - это с доброй долей вероятности равносильно выполнению бекапа в /dev/null. Считаю, что если доросли до SAN - значит потянут еще одно SAN-устройство (дисковая стойка или лента). IMHO.


Цитата:
Бекап нужно держать на отдельном от production устройстве

Автор: urodliv
Дата сообщения: 17.07.2015 13:56
Теме UP!
Достал меня nas4free до ужаса. Решил домашне-рабочее сетевое устройство (microserver на turion`е с 2 Гб ОЗУ) на дебиан перевести. Данные вроде не шибко критичные, но терять жалко.
Первое что пришло в голову - это стандартная связка raid-5 средствами mdadm поверх которого "намазан" ext4. Решил освежить знания по LVM. А тут бац! Оказывается RAID-5 можно сделать силами самого LVM. Я удивлён, но и обрадован. Получается в нашем "пирожке" минус одна прослойка. Но вот что с надёжностью этого варианта и его производительностью информации в интернете найти не удалось. Может кто-нибудь у нас тут пробовал это в работе? Поделитесь с нами.
Автор: Alukardd
Дата сообщения: 18.07.2015 13:11
urodliv
IMHO, не считаю разумным доверять LVM'у размазывать данные, хотя сам всё же этим пользуюсь. Мы на работе используем LVM RAID-0(всем он знаком под опцией --stripes, -i). Но всё это поверх RAID-10 (аппаратного или mdadm).
Что касается RAID-5, то вообще стрёмно.
Во-первых, Вам надо будет заботиться о каждой LV'хе отдельно, т.к. размазывание происходит именно на уровне LV. По мне так гораздо проще создать md raid5 и дальше плодить какие угодно LV.
Во-вторых, по md raid элементарно больше информации. А с LVM'ом я за последний год поймал уже ни один неприятный момент и до сих на некоторые события у меня нету объяснений. Справделивости ради скажу, что mdadm мне тоже вчера пришлось подпатчить ввиду наличия у них в коде "фичи" при сборке массива (реализовано через ухо это мягко сказать).
Думаю что смог бы придумать и в-третьих и в-четвёртых, но вроде и описанного достаточно что бы не пытаться избежать дополнительного слоя абстракции в виде mdadm.
Автор: urodliv
Дата сообщения: 18.07.2015 18:27
Alukardd

Цитата:
Во-вторых, по md raid элементарно больше информации.

Ага. Вчера в вечеру об этом же подумал. Самую простую информацию о ходе пересборки массива получить нечем. Хотя при этом напряг на ЦПУ чуть меньше, чем при работе mdadm. Но всё равно даю отказ затее.
Какую ФС рекомендуете взять? Гору инфы перечитал по этому делу, так ещё больше запутался.

Страницы: 12

Предыдущая тема: Debian


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.