Я это уже понял, ты бы лучше инфу доп. выдал хоть какую. Мать в точности P5Q-E или другая?
» VMware ESX, ESXi, vSphere и Infrastructure
Я это уже понял, ты бы лучше инфу доп. выдал хоть какую. Мать в точности P5Q-E или другая?
LevT
Цитата:
Будет инфа Сорри, сервер дома - я на даче ))) мать P5Q-VM, щас сервер на ESX3i. Когда ставлю 4ку (i) - ругается на lvm.
Думаю, что нужно указать мое ICH10 как устройство...
Добавлено:
ВСЕМ
Подскажите пожалуйста правильно ли я думаю:
Есть: msa-1500 + несколько серверов, все соединено по FC
Хочу: Первый лун, не очень большого раздела отвести под хранение виртуальных машин. Остальные луны отмапливать по RDM. При этом какая-то часть относится к win платформам, какая-то к lin.
Зачем: Основная идея всего этого безобразия - каждые конкретный лун от стораджа будет использоваться конкретной машиной, ессно все это должно мигирроваться и работать (это я проверил). Теперь, если мне вдруг надо будет вывести машину из виртуализации, я просто создаю физический сервер, подключаю по FC и спокойно юзаю данные на RDM разделах. Ессно должно быть верно и обратное.
Ессно - лунухам линуховые луны, виндям - виндевые.
Теперь вопрос: Если ли смысл на первом (vmfs разделе для виртуальных машин) создать свою папочку для всех RAW лунов ??? и создавать там RDM диски руками ???
vmkfstools -r /vmfs/devices/disks/naa.600c0ff000d7b1c50df3414a01000000 /vmfs/volumes/Storage1/RAW
disk01.vmdk
потом их просто добавлять в виртуальные машины при необходимости. Или это какой-то не правильный путь ????
Я проверил данную схему - она работает,
Цитата:
Я это уже понял, ты бы лучше инфу доп. выдал хоть какую. Мать в точности P5Q-E или другая?
Будет инфа Сорри, сервер дома - я на даче ))) мать P5Q-VM, щас сервер на ESX3i. Когда ставлю 4ку (i) - ругается на lvm.
Думаю, что нужно указать мое ICH10 как устройство...
Добавлено:
ВСЕМ
Подскажите пожалуйста правильно ли я думаю:
Есть: msa-1500 + несколько серверов, все соединено по FC
Хочу: Первый лун, не очень большого раздела отвести под хранение виртуальных машин. Остальные луны отмапливать по RDM. При этом какая-то часть относится к win платформам, какая-то к lin.
Зачем: Основная идея всего этого безобразия - каждые конкретный лун от стораджа будет использоваться конкретной машиной, ессно все это должно мигирроваться и работать (это я проверил). Теперь, если мне вдруг надо будет вывести машину из виртуализации, я просто создаю физический сервер, подключаю по FC и спокойно юзаю данные на RDM разделах. Ессно должно быть верно и обратное.
Ессно - лунухам линуховые луны, виндям - виндевые.
Теперь вопрос: Если ли смысл на первом (vmfs разделе для виртуальных машин) создать свою папочку для всех RAW лунов ??? и создавать там RDM диски руками ???
vmkfstools -r /vmfs/devices/disks/naa.600c0ff000d7b1c50df3414a01000000 /vmfs/volumes/Storage1/RAW
disk01.vmdk
потом их просто добавлять в виртуальные машины при необходимости. Или это какой-то не правильный путь ????
Я проверил данную схему - она работает,
Цитата:
Теперь вопрос: Если ли смысл на первом (vmfs разделе для виртуальных машин) создать свою папочку для всех RAW лунов ??? и создавать там RDM диски руками ???
думаю, нет.
Michigun
Цитата:
лунов дофига получается, ибо esx только 2х теровые держит, вот думал какой-то порядок навести
Цитата:
Цитата:
Теперь вопрос: Если ли смысл на первом (vmfs разделе для виртуальных машин) создать свою папочку для всех RAW лунов ??? и создавать там RDM диски руками ???
думаю, нет.
лунов дофига получается, ибо esx только 2х теровые держит, вот думал какой-то порядок навести
А когда vmdk-ссылка на RDM лежит в папке ВМ, к которой он подключен - это беспорядок?
Цитата:
лунов дофига получается, ибо esx только 2х теровые держит, вот думал какой-то порядок навести
а если я его в другую переключу ??? а тут все вроде как понятно - можно даже имена дать, в соответствии с функциями....
Цитата:
а если я его в другую переключу ??? а тут все вроде как понятно - можно даже имена дать, в соответствии с функциями....
о_0
хм. вы собираетесь часто переключать рдм ЛУНы между ВМ? А зачем?
В любом случае, даже если это действительно надо: вы же сначала рдм уберете из одной ВМ, потом отдадите другой. И vmdk будет пересоздан в папке уже нового владельца.
Цитата:
Цитата:
а если я его в другую переключу ??? а тут все вроде как понятно - можно даже имена дать, в соответствии с функциями....
о_0
хм. вы собираетесь часто переключать рдм ЛУНы между ВМ? А зачем?
В любом случае, даже если это действительно надо: вы же сначала рдм уберете из одной ВМ, потом отдадите другой. И vmdk будет пересоздан в папке уже нового владельца.
во !!! а вот тут вопрос, при пересоздании RDM, оно с диском ничего не делает ??? те данные не пропадут ????
Я вчера лажу написал: Host Update Utitlity - только для ESXi
упдате манагер - для обоих.
Цитата:
во !!! а вот тут вопрос, при пересоздании RDM, оно с диском ничего не делает ??? те данные не пропадут ????
нет, конечно.
Кстати, я уже даааавно юзаю такую схему (с msa-1500 на FC) - у меня на луне создан lvm раздел. Которые порезан на кусочки используемые разными виртуальными и одной физической машинами. Увеличение разделов в lvm за это время проводилось неоднакратно, при этом никакой потери данных или еще чего-то небыло. Ессно пропадение света, неверное РУЧНОЕ удаление разделов (все легко восстановилось) было. Но пока (тьфу-тьфу) все отлично.
Я (честно говоря) даже забыл как все это создавал, ибо мигрировало все с первого esx, которые можно было скачать и работало почти постоянно. Спасибо LevT - подсказал
Именно по этому я хочу использовать поверх RDM разделов LVM партишены, одновременное использование которые в разных виртуалках вроде как безопасно.
Я (честно говоря) даже забыл как все это создавал, ибо мигрировало все с первого esx, которые можно было скачать и работало почти постоянно. Спасибо LevT - подсказал
Именно по этому я хочу использовать поверх RDM разделов LVM партишены, одновременное использование которые в разных виртуалках вроде как безопасно.
Вопрос к давним пользователям ESX, знакомым с vmfs2
Явилась у меня безумная идея заюзать такие тома ради RDM. Сама такая фс - ридонли в ESX3-4, но что насчет отмапленых лунов? Будут ли они работоспобны?
Цитата:
Явилась у меня безумная идея заюзать такие тома ради RDM. Сама такая фс - ридонли в ESX3-4, но что насчет отмапленых лунов? Будут ли они работоспобны?
поясни?
Michigun
в VMFS3 размер блока ограничили 8М, а раньше он мог быть больше. Соответственно если там можно расположить мапы лунов - то они могут быть много больше чем 2ТВ...
Ещё бы отмапленные таким образом луны оказались не ридонли - и вваще красота!
в VMFS3 размер блока ограничили 8М, а раньше он мог быть больше. Соответственно если там можно расположить мапы лунов - то они могут быть много больше чем 2ТВ...
Ещё бы отмапленные таким образом луны оказались не ридонли - и вваще красота!
Всем привет!
Подскажите, а что произойдет с Datastorage-м в ESX4, примапленным с использованием алгоритма Round Robin и использованием 4-х путей, если один или два линка упадут?
Подскажите, а что произойдет с Datastorage-м в ESX4, примапленным с использованием алгоритма Round Robin и использованием 4-х путей, если один или два линка упадут?
Цитата:
Подскажите, а что произойдет с Datastorage-м в ESX4, примапленным с использованием алгоритма Round Robin и использованием 4-х путей, если один или два линка упадут?
Насколько я понимаю, round robin это способ выбора одного из четырех - на шару.
Если это один упадет - произойдет переключение на какой то из оставшихся. В теории, для ВМ это произойдет незаметно.
Победил проблему 8М для системного VMFS.
Правда очень скучным способом: через установку ESX3.5, ручное создание стораджа с нужным блоком и Host Update Utility
Утилита эта работает так: заливает дистрибутивный iso ESX4 на сторадж машинки-пациента и стартует инсталлятор со специальным ks-upgrade.cfg
Код:
/# cat /mnt/sysimage/etc/vmware/ks-upgrade.cfg
# generated by VIU
upgrade
install cdrom
autopart --onvmfs=4a474a34-a35b3aa0-9980-005056af2693 --extraspace=1
vmaccepteula
Правда очень скучным способом: через установку ESX3.5, ручное создание стораджа с нужным блоком и Host Update Utility
Утилита эта работает так: заливает дистрибутивный iso ESX4 на сторадж машинки-пациента и стартует инсталлятор со специальным ks-upgrade.cfg
Код:
/# cat /mnt/sysimage/etc/vmware/ks-upgrade.cfg
# generated by VIU
upgrade
install cdrom
autopart --onvmfs=4a474a34-a35b3aa0-9980-005056af2693 --extraspace=1
vmaccepteula
я застал времена ESX 2.
Насколько я помню, ограничение в 2 ТБ было актуально и для него.
Насколько я помню, ограничение в 2 ТБ было актуально и для него.
Цитата:
ас буду перегружать его на физическом железе.
Завёлся со второй попытки. 4 стал более чувствителен к стораджам, которые имеют тенденцию переименовываться. Теперь ПЕРЕД сменой железа необходимо поменять
/adv/LVM/EnableResignature = "0" - после этого можно менять железо: консоль будет найдена (при условии наличии в системе дров нового железа).
Ссылка откуда почерпнул идею:
http://communities.vmware.com/thread/211716?start=0&tstart=75
Цитата:
Насколько я понимаю, round robin это способ выбора одного из четырех - на шару.
Если это один упадет - произойдет переключение на какой то из оставшихся. В теории, для ВМ это произойдет незаметно.
--------------------------------------------------------------------------------
А точно ли так?
Ведь "round robin" работает, если я не ошибаюсь, так:
пути - пакеты
1-1,5,9...
2-2,6...
3-3,7...
4-4,8...
Не произойдет ли потери пакетов?
Цитата:
А точно ли так?
Ведь "round robin" работает, если я не ошибаюсь, так:
пути - пакеты
1-1,5,9...
2-2,6...
3-3,7...
4-4,8...
Не произойдет ли потери пакетов?
сейчас нет времени искать доку, но насколько помню я
round robin - это способ сделать так, чтобы к разным ЛУНам обращение шло по разным путям.
К одному ЛУНу по какому то одному, в отдельно взятый момент времени.
Максимально возможные параметры для vSphere:
http://www.vmware.com/pdf/vsphere4/r40/vsp_40_config_max.pdf
http://www.vmware.com/pdf/vsphere4/r40/vsp_40_config_max.pdf
Сегодня столкнулся со следующей непоняткой:
Установил в целях тестирования Windows 7 на хост с ESXi4.
Пока выделял виртуалке 1 vCPU, она у меня стартовала и останавливалась без проблем как из консоли, подключенной к VC, так и из консоли, подключенной напрямую к хосту.
Потом я добавил виртуалке еще один vCPU. Запуск и остановка из консоли, подключенной напрямую к хосту, по-прежнему осуществляются без проблем, а, вот, при запуске из консоли, подключенной к VC, вылетает следующая ошибка:
Цитата:
...и виртуалка не стартует.
Повторюсь, при запуске из консоли, подключенной напрямую к хосту, проблем не возникает.
Как только опять оставляю виртуалке 1 vCPU, она стартует из консоли, подключенной к VC, опять без проблем.
Добавлено:
Проверил с Windows 2003 sp2 (не полинился, добавил еще один vCPU) - таже "песня" - не стартует из консоли, подключенной к VC, а если стартовать из консоли, подключенной напрямую к хосту, то стартует без проблем.
Т.е. такая непонятка происходит, походу, со всеми виртуалками под Win (Lin не проверял - нет под рукой).
Добавлено:
Хост - HP DL 380 G4, 2 CPU (по два логических CPU в каждом - в свойствах виртуалок можно добавить до 4 vCPU), 12 Gb памяти. Лицензия на ESX - Up to 8-way virtual SMP.
Добавлено:
Да, в консолях я захожу под разными учетками:
- в консоли, подключенной напрямую к хосту, захожу под root;
- в консоли, подключенной к VC, захожу под некой доменной учеткой.
Но, обе учетки имеют роль Administrator в контексте безопасности ESX.
Установил в целях тестирования Windows 7 на хост с ESXi4.
Пока выделял виртуалке 1 vCPU, она у меня стартовала и останавливалась без проблем как из консоли, подключенной к VC, так и из консоли, подключенной напрямую к хосту.
Потом я добавил виртуалке еще один vCPU. Запуск и остановка из консоли, подключенной напрямую к хосту, по-прежнему осуществляются без проблем, а, вот, при запуске из консоли, подключенной к VC, вылетает следующая ошибка:
Цитата:
Virtual machine has 2 virtual CPUs, but the host only supports 1. The number of virtual CPUs may be limited by the guest OS selected for the virtual machine or by the licensing for the host.
...и виртуалка не стартует.
Повторюсь, при запуске из консоли, подключенной напрямую к хосту, проблем не возникает.
Как только опять оставляю виртуалке 1 vCPU, она стартует из консоли, подключенной к VC, опять без проблем.
Добавлено:
Проверил с Windows 2003 sp2 (не полинился, добавил еще один vCPU) - таже "песня" - не стартует из консоли, подключенной к VC, а если стартовать из консоли, подключенной напрямую к хосту, то стартует без проблем.
Т.е. такая непонятка происходит, походу, со всеми виртуалками под Win (Lin не проверял - нет под рукой).
Добавлено:
Хост - HP DL 380 G4, 2 CPU (по два логических CPU в каждом - в свойствах виртуалок можно добавить до 4 vCPU), 12 Gb памяти. Лицензия на ESX - Up to 8-way virtual SMP.
Добавлено:
Да, в консолях я захожу под разными учетками:
- в консоли, подключенной напрямую к хосту, захожу под root;
- в консоли, подключенной к VC, захожу под некой доменной учеткой.
Но, обе учетки имеют роль Administrator в контексте безопасности ESX.
подскажите на каком минимальном контроллере можно сделать RDM ?
сейчас esxi стоит на q35 чипсете sata на ich видит, storage создает, а RDM нет.
сейчас esxi стоит на q35 чипсете sata на ich видит, storage создает, а RDM нет.
Dimsoft
вручную его надо создавать: из гуя опция засерена всегда, пока у хоста не доступа к тому, что он сам считает SAN-ом.
Если подключить к хосту хот бы один таргет, опция появится и позволит подключить этот таргет один раз (или типа сколько раз его подключать разрешено)
Что не мешает создавать фалый маппинга его из комстроки через vmkfstools -r или -z
первый параметр после опции - лун целиком
/vmfs/devices/disks/t10.ATA_____ST3320620NS_________________________________________5QF2MCZ
, второй параметр - /vmfs/volumes/Storage1/dummy.vmdk
- и потом подключить его к виртуалке как существующий диск.
вручную его надо создавать: из гуя опция засерена всегда, пока у хоста не доступа к тому, что он сам считает SAN-ом.
Если подключить к хосту хот бы один таргет, опция появится и позволит подключить этот таргет один раз (или типа сколько раз его подключать разрешено)
Что не мешает создавать фалый маппинга его из комстроки через vmkfstools -r или -z
первый параметр после опции - лун целиком
/vmfs/devices/disks/t10.ATA_____ST3320620NS_________________________________________5QF2MCZ
, второй параметр - /vmfs/volumes/Storage1/dummy.vmdk
- и потом подключить его к виртуалке как существующий диск.
CHIRT
подтверждаю, такая фигня из VC в принципе не запускаются машины, пишут ято неверные параметры, но потом работают и вполне нормально
подтверждаю, такая фигня из VC в принципе не запускаются машины, пишут ято неверные параметры, но потом работают и вполне нормально
murphy2000
У меня пока только на ESXi4 и, когда я еще один проц. добавляю. Вот, хочу теперь с ESXi3.5U4 проверить.
2 All
Подскажите неучу, как из unsupported mode выйти, чтобы опять нормальная консоль ESXi появилась?
Выполняю команду exit, так он выходит в состояние, скажем так, "после нажатия клавишь ALT-F1" (кто в курсе).
У меня пока только на ESXi4 и, когда я еще один проц. добавляю. Вот, хочу теперь с ESXi3.5U4 проверить.
2 All
Подскажите неучу, как из unsupported mode выйти, чтобы опять нормальная консоль ESXi появилась?
Выполняю команду exit, так он выходит в состояние, скажем так, "после нажатия клавишь ALT-F1" (кто в курсе).
CHIRT
ALT-F2
ALT-F2
Michigun
Сработало!
Сработало!
Цитата:
вручную его надо создавать
LevT
темный лес
спрошу проще (для меня )
можно диски разбитые в NTFS закинуть внутрь VM на esxi 3,5 который установлен на флешку ?
Цитата:
Если подключить к хосту хот бы один таргет
это любой ? можно просто по iscsi том левый подцепить или как ?
Страницы: 1234567891011121314151617
Предыдущая тема: Как поставить MS-DOS на флешку?
Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.