Ru-Board.club
← Вернуться в раздел «В помощь системному администратору»

» ZFS, использование и настройка

Автор: Dimsoft
Дата сообщения: 19.10.2009 20:21

Цитата:
Собсно меня не затруднит и руками из CLI создать все что надо

LevT
аналогично, но в open storage привлекает именно web морда и отчеты

Добавлено:
LevT
я смотрел, на железке разные типы дисков для разных целей
например под zil отдельный ssd (непонятно чей, 3,5 но плоский, 6-7 мм)
Автор: LevT
Дата сообщения: 19.10.2009 20:35

Цитата:

я смотрел, на железке разные типы дисков для разных целей
например под zil отдельный ssd (непонятно чей, 3,5 но плоский, 6-7 мм)


там в идеале можно воткнуть отдельные Logzilla и Readzilla: пишут, что производительность саташного массива таким образом приравнивается к сасной.
Автор: LevT
Дата сообщения: 31.10.2009 11:36
1) Чтобы обновление не ломало системный пул, надо сделать "reset to factory defaults"



2) В sun unified storage - который можно считать образцово навороченным над ZFS набором сервисов - есть качественная документация по адресу

https://ipaddress:215/wiki/ (она же вызывается кликом на help)

в ней не только справка по интерфейсу, но и объяcнение концепций. Пример


Цитата:

Сторадж пулы

ZFS группирует нижележащие устройства хранения в пулы, из которых фс и луны забирают нужное количество дисковых ресурсов. Прежде чем создавать фс и луны, вы должны сконфигрурировать сторадж. После того, как сторадж пул сконфигурирован, нет нужды статически управлять размером фс: нужный результат достигается с использованием квот и резервирования.


Проекты

Для удобства все фс и луны сгруппированы в проекты с общими свойствами. Можно, в принципе, создавать все шары внутри умолчального проекта default - но по мере роста своего хозяйства вы пожалеете, что сразу не озадачились сгруппировать свои шары в проекты.


Шары

Шары это фс и луны, которые экспортированы для клиентов посредством протоколов. Фс экспортируют файловую иерархию и доступны по CIFS, NFS, HTTP/WebDAV и FTP. Луны экспортируют блочные тома и доступны по iSCSI. Пара проект/шара - уникальный идентификатор шары внутри пула. Разные проекты могут содержать одинаково названные шары. Проект может содержать одновременно фс и луны (внутри общего пространства имен).



Снапшоты

A snapshot is a point-in-time copy of a filesystem or LUN. Snapshots can be created manually or by setting up an automatic schedule. Snapshots initially consume no additional space, but as the active share changes, previously unreferenced blocks will be kept as part of the last snapshot. Over time, the last snapshot will take up additional space, with a maximum equivalent to the size of the filesystem at the time the snapshot was taken.

Filesystem snapshots can be accessed over the standard protocols in the .zfs/snapshot snapshot at the root of the filesystem. This directory is hidden by default, and can only be accessed by explicitly changing to the .zfs directory. This behavior can be changed in the Snapshot view, but may cause backup software to backup snapshots in addition to live data. LUN Snapshots cannot be accessed directly, though they can be used as a rollback target or as the source of a clone. Project snapshots are the equivalent of snapshotting all shares within the project, and snapshots are identified by name. If a share snapshot that is part of a larger project snapshot is renamed, it will no longer be considered part of the same snapshot, and if any snapshot is renamed to have the same name as a snapshot in the parent project, it will be treated as part of the project snapshot.

Shares support the ability to rollback to previous snapshots. When a rollback occurs, any newer snapshots (and clones of newer snapshots) will be destroyed, and the active data will be reverted to the state when the snapshot was taken. Snapshots only include data, not properties, so any property settings changed since the snapshot was taken will remain.



Клоны

A clone is a writable copy of a share snapshot, and is treated as an independent share for administrative purposes. Like snapshots, a clone will initially take up no extra space, but as new data is written to the clone, the space required for the new changes will be associated with the clone. Clones of projects are not supported. Because space is shared between snapshots and clones, and a snapshot can have multiple clones, a snapshot cannot be destroyed without also destroying any active clones.


Автор: Dimsoft
Дата сообщения: 01.11.2009 16:21

Цитата:
Чтобы обновление не ломало системный пул, надо сделать "reset to factory defaults"

LevT
все равно ломает
или это из консоли надо сделать ?
Автор: LevT
Дата сообщения: 01.11.2009 16:47

я делал из вебморды
Автор: LevT
Дата сообщения: 17.11.2009 20:36
Dimsoft

Проблема с ломкой системного пула победилась у меня так:


Код:
confirm shell /usr/lib/ak/tools/akfixfru
hardware.refresh()
Автор: Dimsoft
Дата сообщения: 18.11.2009 06:00

Цитата:
confirm shell /usr/lib/ak/tools/akfixfru
hardware.refresh()

LevT
это из её консоли ?

Добавлено:
LevT
а может ход конем (хотя это по аналогии с windows) к виртуальному серверу пробросить PCI-e RAID контроллер и посмотреть, что с драйверами ?
Автор: LevT
Дата сообщения: 18.11.2009 11:42

там нет дров локального стораджа, кроме mpt_scsi (Это типа не винды "вообще", а WinPE или embedded - где только те дрова, что соблаговолил включить разработчик образа).

Без перепаковывания (покамест неизвестно как сделанного) образа задача неразрешима

даже и в случае успешного перепаковывания она может проверять платформу, бинарником, типа тех, что лежат в /usr/lib/ak/tools. И отказаться запуститься не под вмваре.
Автор: Dimsoft
Дата сообщения: 19.11.2009 10:41
LevT
есть мысль "заказать" на "потестить" живую 7100 и на неё посмотреть
Автор: LevT
Дата сообщения: 19.11.2009 12:54

ну и там тоже... RO образ типа фирмваре только с теми дровами, которые по штату положено.

Разве чтобы сравнить содержимое... те же бинарники.

Потренируйся сначала на кошечках - скажем сравни симулятор и обычную установленную опенсоляру с помощью WinSCP. Я невеликий юниксоид, других идей в голову не приходит.
Автор: Dimsoft
Дата сообщения: 19.11.2009 17:09
LevT
я надеюсь что там есть драйвера каких то железок от intel
Автор: LevT
Дата сообщения: 20.11.2009 09:29
времени будет мало

Сначала поставь опенсолярис рядом на физическое железо - и потренируйся сравнивать.

А начать можно с трех виртуалок

1) опенсолярис
2) весеннний (первоначальный) симулятор
3) симулятор после обновления
3а) то же, но с удалённым весенним boot enironment (вариантом загрузки)
Автор: VovaMozg
Дата сообщения: 21.11.2009 19:27
Ребят, подскажите куда копать:
zfs+Oracle
созадем новый файл для оракла (чтобы зарезервировать место), сервер встал минут на 10. дело скорее всего в zfs.
Автор: LevT
Дата сообщения: 21.11.2009 20:41
я б спросил на форуме sunhelp.ru
Автор: serguei00
Дата сообщения: 09.12.2009 15:29
Общий привет.

1.есть подсоединение ESXi3.5 по iSCSI к FreeNAS. Расшаренный экстенд сделан на zpool`e. Скорость копирования 1МБайт/сек. Оба интерфейса и свич гиговые.

как пишут на форуме ФриНАСа, возможная проблема в ZIL и, в качестве решения предлагают ZIL отключить.

К каким возможным последствиям это приведет? Может есть другой способ увеличить скорость?

отвечаю сам себе:
Disabling ZIL is not recommended where data consistency is required (such as database servers) but will not result in file system corruption. See http://www.solarisinternals.com/wiki/index.php/ZFS_Evil_Tuning_Guide#Disabling_the_ZIL_.28Don.27t.29 .


2.Второй вопрос по эмулятору 7000-ка. Кому-нибудь удалось запустить оге на ESX VMwareServer (не на VM Player)? если да, то как? У меня попытка сконвертировать его для ESX оканчивалась ошибкой в самом конце конвертации.
Автор: PhoenixUA
Дата сообщения: 28.12.2009 07:59
Восстановление ZFS с помощью OSol LiveCD
http://opensolaris.org/jive/message.jspa?messageID=445269#445274
[more=Копипаст]JD Trout wrote:
> Hello,
> I am running OpenSol 2009.06 and after a power outage opsensol will no longer boot past GRUB. Booting from the liveCD shows me the following:
>
> root@opensolaris:~# zpool import -f rpool
> cannot import 'rpool': I/O error
>
> root@opensolaris:~# zpool import -f
> pool: rpool
> id: 15378657248391821369
> state: FAULTED
> status: The pool was last accessed by another system.
> action: The pool cannot be imported due to damaged devices or data.
> The pool may be active on another system, but can be imported using
> the '-f' flag.
> see: http://www.sun.com/msg/ZFS-8000-EY
> config:
>
> rpool FAULTED corrupted data
> c7d0s0 ONLINE
>
>
> Is all hope lost?

No. Try to get LiveCD based on build 128 or later at e.g.
www.genunix.org, boot off it and try to import your rpool this way:

zpool import -nfF -R /mnt rpool

If it reports that it can get back to good pool state, then do actual
import with

zpool import -fF -R /mnt rpool

In case first command cannot rewind to older state, try to add -X option:

zpool import -nfFX -R /mnt rpool

and if it says that it can recover your pool with some data loss and you
are ok with it, then do actual import

zpool import -fFX -R /mnt rpool

regards,
victor[/more]
OSol можно взять здесь - http://genunix.org/dist/indiana/
или здесь - http://dlc.sun.com/torrents/info/
Автор: LevT
Дата сообщения: 03.01.2010 10:25


Призна.ю, что был неправ, начав темы плодить. Вот здесь важная инфа.

Сам же пощу в них мимо своей заложенной логики.

Автор: gryu
Дата сообщения: 12.02.2011 23:28
Коллеги. Что-то случилось с RAID-Z
OS - FreeBSD
Суть.
Был смонтирован пулл в режиме RAID-Z из 4-х дисков. Всё было прекрасно, всё работало.
"ни с того, ни с сего" точка монтирования исчезла из ситемы.

Цитата:
v# zpool list
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
tank 444G 188G 256G 42% ONLINE -
Расширенная информация
Цитата:
zpool status -v
pool: tank
state: ONLINE
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1 ONLINE 0 0 0
ad8 ONLINE 0 0 0
ad9 ONLINE 0 0 0
ad10 ONLINE 0 0 0
ad11 ONLINE 0 0 0

errors: No known data errors
как вернуть?
Просто подмонтировать обратно
Цитата:
# zfs set mountpoint=/mnt/raid-z tank/raidz
не получается

Добавлено:
P.S.
Информация на пуле нужная.
Автор: Dimsoft
Дата сообщения: 13.06.2011 16:10
как сделать CIFS шару для записи гостей из windows ?
чтобы пароль не вводили ?
Автор: Dimsoft
Дата сообщения: 17.02.2012 16:26

Цитата:
как сделать CIFS шару для записи гостей из windows ?


Dimsoft
Поставить napp-it - там все понятно
Автор: gryu
Дата сообщения: 13.09.2012 14:43
Коллеги.
Может всё же хоть кто то понимает в ZFS?
Проблема повторилась, но в худшем варианте.

Цитата:
# zpool import
pool: raid-z
id: 358225419146398289
state: FAULTED
status: The pool metadata is corrupted.
action: The pool cannot be imported due to damaged devices or data.
The pool may be active on another system, but can be imported using
the '-f' flag.
see: http://www.sun.com/msg/ZFS-8000-72
config:

raid-z FAULTED corrupted data
raidz1-0 ONLINE
ada2 ONLINE
ada6 ONLINE
ada3 ONLINE
ada1 ONLINE
ada5 ONLINE
ada4 ONLINE
ada0 ONLINE
С ключём -f
Цитата:
t# zpool import -f raid-z
cannot import 'raid-z': I/O error
Recovery is possible, but will result in some data loss.
Returning the pool to its state as of Thu Sep 13 10:01:51 2012
should correct the problem. Approximately 15 seconds of data
must be discarded, irreversibly. Recovery can be attempted
by executing 'zpool import -F raid-z'. A scrub of the pool
is strongly recommended after recovery.
Ну и чего ему ещё надо?? "может быть смонтирован с частичной потерей данных.... используй 'zpool import -F raid-z'.."
Но не импортирует.
Цитата:
t# zpool import -F raid-z
cannot import 'raid-z': pool may be in use from other system
use '-f' to import anyway
.. ??? В чём дело?


Добавлено:
А-А-А-А-А-А-А-А-А-А-А-А!!!!!!!!!!!!
Идиото! критино! ....

Цитата:
# zpool import -F -f raid-z
Pool raid-z returned to its state as of Thu Sep 13 10:01:51 2012.
Discarded approximately 15 seconds of transactions.

ОБА ключа нужно было. И -F и -f
Автор: Sauron_zombie
Дата сообщения: 05.11.2012 21:22
Вот перевод статьи A look at MySQL on ZFS.
Может, пригодится...
Автор: Sauron_zombie
Дата сообщения: 06.11.2012 18:51
Сравнение некоторых реализаций хранилищ на Open-Source:
Open-Source SAN – Part 1: Introduction
Open-Source SAN – Part 2: FreeNAS
Open-Source SAN – Part 3: OpenFiler
Open-Source SAN – Part 4: Solaris-based Appliances
Автор: MasterX5
Дата сообщения: 24.12.2012 20:05

Цитата:
Здравствуйте, помогите, пожалуйста, после установки обновления FreeNAS 8.3.0-RELEASE-p1 32-bit через компакт-диск, система выглядит как новая - пропали пользователи и диски. Диски созданы в файловой системе ZFS, без RAID. Как можно восстановить доступ к данным на дисках? На дисках много нужной информации. Заранее Спасибо!



Цитата:
Цитата:
Как можно восстановить доступ к данным на дисках?

Ну тут только через систему команд zfs. Поищите "Руководство по администрированию файловых систем ZFS Solaris". Даже на на русском языке существует. Там много чего есть. Будут конкретные проблемы, предлагаю писать в эту тему. Там будем разбираться/помогать.



ZFS вообще не знаю, не понимаю с чего начать.
Автор: urodliv
Дата сообщения: 24.12.2012 20:21

Цитата:
ZFS вообще не знаю, не понимаю с чего начать

Да блин, до чего же все ленивые...
0. Снимите образы винчестеров. Если снимать некуда, то лучше вообще не беритесь за это дело.
1. Возьмите инструкцию
2. Врубитесь как устроена zfs.
3. Выпишите основные команды, необходимые для "вылавливания" данных.
4. Действовать по обстановке.
Автор: tankistua
Дата сообщения: 24.12.2012 23:00
о - появился еще один человек, который будет делать резервные копии важных данных.

Автор: LevT
Дата сообщения: 25.12.2012 06:31
MasterX5

Данные никуда не делись, и вылавливать их не надо (пишу в предположении, что не были злонамеренным образом модифицированы ни установленный дистрибутив... ни мозги и руки того, кто применял обновление)

Сейчас надо получить доступ к рутовой консоли/эмулятору терминала и сказать там

# zpool status
# zpool import -f

Эти диагностические команды ничего не записывают на диски. Результаты в студию.

В соляре я бы добавил третью неразрушающую команду
# format

[more]
root@oi:~# format
Searching for disks...done


AVAILABLE DISK SELECTIONS:
0. c3t5000CCA36AC0E7EFd0 <ATA-Hitachi HDS72302-A800-1.82TB>
/scsi_vhci/disk@g5000cca36ac0e7ef
1. c3t5000CCA36AC12CCDd0 <ATA-Hitachi HDS72302-A800-1.82TB>
/scsi_vhci/disk@g5000cca36ac12ccd
2. c3t5000CCA36AC177F1d0 <ATA-Hitachi HDS72302-A800-1.82TB>
/scsi_vhci/disk@g5000cca36ac177f1
3. c3t5000CCA36AC191F1d0 <ATA-Hitachi HDS72302-A800-1.82TB>
/scsi_vhci/disk@g5000cca36ac191f1
4. c3t5000CCA36AC1722Cd0 <ATA-Hitachi HDS72302-A800-1.82TB>
/scsi_vhci/disk@g5000cca36ac1722c
5. c3t5000CCA36AC1978Cd0 <ATA-Hitachi HDS72302-A800-1.82TB>
/scsi_vhci/disk@g5000cca36ac1978c
6. c3t5000CCA36AC1981Ad0 <ATA-Hitachi HDS72302-A800-1.82TB>
/scsi_vhci/disk@g5000cca36ac1981a
7. c3t5000CCA36AC17802d0 <ATA-Hitachi HDS72302-A800-1.82TB>
/scsi_vhci/disk@g5000cca36ac17802
8. c5t0d0 <VMware-Virtualdisk-1.0 cyl 2085 alt 2 hd 255 sec 63>
/pci@0,0/pci15ad,1976@10/sd@0,0
Specify disk (enter its number): ^C
[/more]
Что на этом месте в bsd, я не знаю.
Автор: tankistua
Дата сообщения: 25.12.2012 07:37
готов поспорить, что данные грохнуты полной переразбивкой дисков и последующей чистой установкой. изи рекавери для zfs не существует, насколько мне известно.

и самое главное - нет данных с какой версии обновили, zfs появилась в 8-ке, так что если раньше был тот же нас старее версии, то там скорее всего был ufs.
Автор: LevT
Дата сообщения: 25.12.2012 10:44

Цитата:
изи рекавери для zfs не существует, насколько мне известно.


Внешних средств восстановления действительно нет, зато дохренища внутреннего запаса прочности.
Но против лома нет приёма - именно таким ломом являются злонамеренные/идиотические переразметка и создание на старых дисках новых файловых систем.
Но опять же: если переразмечен только один диск из отказоустойчивого пула (допустим под новую ОС), то данные целы.
Автор: urodliv
Дата сообщения: 25.12.2012 12:29
tankistua
LevT
А давайте подождём вопрошающего. А то мы настроим теорий и "замков", а там будет всё куда как проще. Подождём?

Страницы: 123

Предыдущая тема: Печать на принтере из другого сегмента сети.


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.