Ru-Board.club
← Вернуться в раздел «Другие ОС»

» VMware ESX, ESXi, vSphere и Infrastructure

Автор: LevT
Дата сообщения: 27.06.2009 09:26

Я это уже понял, ты бы лучше инфу доп. выдал хоть какую. Мать в точности P5Q-E или другая?
Автор: murphy2000
Дата сообщения: 27.06.2009 09:31
LevT

Цитата:

Я это уже понял, ты бы лучше инфу доп. выдал хоть какую. Мать в точности P5Q-E или другая?


Будет инфа Сорри, сервер дома - я на даче ))) мать P5Q-VM, щас сервер на ESX3i. Когда ставлю 4ку (i) - ругается на lvm.
Думаю, что нужно указать мое ICH10 как устройство...

Добавлено:
ВСЕМ

Подскажите пожалуйста правильно ли я думаю:
Есть: msa-1500 + несколько серверов, все соединено по FC
Хочу: Первый лун, не очень большого раздела отвести под хранение виртуальных машин. Остальные луны отмапливать по RDM. При этом какая-то часть относится к win платформам, какая-то к lin.
Зачем: Основная идея всего этого безобразия - каждые конкретный лун от стораджа будет использоваться конкретной машиной, ессно все это должно мигирроваться и работать (это я проверил). Теперь, если мне вдруг надо будет вывести машину из виртуализации, я просто создаю физический сервер, подключаю по FC и спокойно юзаю данные на RDM разделах. Ессно должно быть верно и обратное.
Ессно - лунухам линуховые луны, виндям - виндевые.

Теперь вопрос: Если ли смысл на первом (vmfs разделе для виртуальных машин) создать свою папочку для всех RAW лунов ??? и создавать там RDM диски руками ???
vmkfstools -r /vmfs/devices/disks/naa.600c0ff000d7b1c50df3414a01000000 /vmfs/volumes/Storage1/RAW
disk01.vmdk
потом их просто добавлять в виртуальные машины при необходимости. Или это какой-то не правильный путь ????

Я проверил данную схему - она работает,
Автор: Michigun
Дата сообщения: 27.06.2009 09:55

Цитата:
Теперь вопрос: Если ли смысл на первом (vmfs разделе для виртуальных машин) создать свою папочку для всех RAW лунов ??? и создавать там RDM диски руками ???

думаю, нет.
Автор: murphy2000
Дата сообщения: 27.06.2009 09:57
Michigun

Цитата:

Цитата:
Теперь вопрос: Если ли смысл на первом (vmfs разделе для виртуальных машин) создать свою папочку для всех RAW лунов ??? и создавать там RDM диски руками ???

думаю, нет.


лунов дофига получается, ибо esx только 2х теровые держит, вот думал какой-то порядок навести
Автор: Michigun
Дата сообщения: 27.06.2009 09:59
А когда vmdk-ссылка на RDM лежит в папке ВМ, к которой он подключен - это беспорядок?
Автор: murphy2000
Дата сообщения: 27.06.2009 10:00

Цитата:
лунов дофига получается, ибо esx только 2х теровые держит, вот думал какой-то порядок навести


а если я его в другую переключу ??? а тут все вроде как понятно - можно даже имена дать, в соответствии с функциями....
Автор: Michigun
Дата сообщения: 27.06.2009 10:03

Цитата:
а если я его в другую переключу ??? а тут все вроде как понятно - можно даже имена дать, в соответствии с функциями....

о_0
хм. вы собираетесь часто переключать рдм ЛУНы между ВМ? А зачем?
В любом случае, даже если это действительно надо: вы же сначала рдм уберете из одной ВМ, потом отдадите другой. И vmdk будет пересоздан в папке уже нового владельца.
Автор: murphy2000
Дата сообщения: 27.06.2009 10:05

Цитата:
Цитата:
а если я его в другую переключу ??? а тут все вроде как понятно - можно даже имена дать, в соответствии с функциями....

о_0
хм. вы собираетесь часто переключать рдм ЛУНы между ВМ? А зачем?
В любом случае, даже если это действительно надо: вы же сначала рдм уберете из одной ВМ, потом отдадите другой. И vmdk будет пересоздан в папке уже нового владельца.


во !!! а вот тут вопрос, при пересоздании RDM, оно с диском ничего не делает ??? те данные не пропадут ????
Автор: LevT
Дата сообщения: 27.06.2009 10:09

Я вчера лажу написал: Host Update Utitlity - только для ESXi
упдате манагер - для обоих.
Автор: Michigun
Дата сообщения: 27.06.2009 10:10

Цитата:
во !!! а вот тут вопрос, при пересоздании RDM, оно с диском ничего не делает ??? те данные не пропадут ????

нет, конечно.
Автор: murphy2000
Дата сообщения: 27.06.2009 10:16
Кстати, я уже даааавно юзаю такую схему (с msa-1500 на FC) - у меня на луне создан lvm раздел. Которые порезан на кусочки используемые разными виртуальными и одной физической машинами. Увеличение разделов в lvm за это время проводилось неоднакратно, при этом никакой потери данных или еще чего-то небыло. Ессно пропадение света, неверное РУЧНОЕ удаление разделов (все легко восстановилось) было. Но пока (тьфу-тьфу) все отлично.

Я (честно говоря) даже забыл как все это создавал, ибо мигрировало все с первого esx, которые можно было скачать и работало почти постоянно. Спасибо LevT - подсказал

Именно по этому я хочу использовать поверх RDM разделов LVM партишены, одновременное использование которые в разных виртуалках вроде как безопасно.
Автор: LevT
Дата сообщения: 27.06.2009 19:22

Вопрос к давним пользователям ESX, знакомым с vmfs2

Явилась у меня безумная идея заюзать такие тома ради RDM. Сама такая фс - ридонли в ESX3-4, но что насчет отмапленых лунов? Будут ли они работоспобны?
Автор: Michigun
Дата сообщения: 27.06.2009 20:06

Цитата:
Явилась у меня безумная идея заюзать такие тома ради RDM. Сама такая фс - ридонли в ESX3-4, но что насчет отмапленых лунов? Будут ли они работоспобны?

поясни?
Автор: LevT
Дата сообщения: 27.06.2009 20:37
Michigun

в VMFS3 размер блока ограничили 8М, а раньше он мог быть больше. Соответственно если там можно расположить мапы лунов - то они могут быть много больше чем 2ТВ...

Ещё бы отмапленные таким образом луны оказались не ридонли - и вваще красота!
Автор: hqvideo
Дата сообщения: 27.06.2009 21:15
Всем привет!
Подскажите, а что произойдет с Datastorage-м в ESX4, примапленным с использованием алгоритма Round Robin и использованием 4-х путей, если один или два линка упадут?
Автор: Michigun
Дата сообщения: 27.06.2009 22:27

Цитата:
Подскажите, а что произойдет с Datastorage-м в ESX4, примапленным с использованием алгоритма Round Robin и использованием 4-х путей, если один или два линка упадут?

Насколько я понимаю, round robin это способ выбора одного из четырех - на шару.
Если это один упадет - произойдет переключение на какой то из оставшихся. В теории, для ВМ это произойдет незаметно.
Автор: LevT
Дата сообщения: 28.06.2009 14:35
Победил проблему 8М для системного VMFS.

Правда очень скучным способом: через установку ESX3.5, ручное создание стораджа с нужным блоком и Host Update Utility

Утилита эта работает так: заливает дистрибутивный iso ESX4 на сторадж машинки-пациента и стартует инсталлятор со специальным ks-upgrade.cfg


Код:
/# cat /mnt/sysimage/etc/vmware/ks-upgrade.cfg
# generated by VIU
upgrade
install cdrom

autopart --onvmfs=4a474a34-a35b3aa0-9980-005056af2693 --extraspace=1

vmaccepteula
Автор: Michigun
Дата сообщения: 28.06.2009 17:42
я застал времена ESX 2.

Насколько я помню, ограничение в 2 ТБ было актуально и для него.
Автор: LevT
Дата сообщения: 28.06.2009 20:35

Цитата:
ас буду перегружать его на физическом железе.


Завёлся со второй попытки. 4 стал более чувствителен к стораджам, которые имеют тенденцию переименовываться. Теперь ПЕРЕД сменой железа необходимо поменять
/adv/LVM/EnableResignature = "0" - после этого можно менять железо: консоль будет найдена (при условии наличии в системе дров нового железа).

Ссылка откуда почерпнул идею:
http://communities.vmware.com/thread/211716?start=0&tstart=75

Автор: Valery_Vasilyev
Дата сообщения: 29.06.2009 08:55

Цитата:
Насколько я понимаю, round robin это способ выбора одного из четырех - на шару.
Если это один упадет - произойдет переключение на какой то из оставшихся. В теории, для ВМ это произойдет незаметно.

--------------------------------------------------------------------------------



А точно ли так?
Ведь "round robin" работает, если я не ошибаюсь, так:
пути - пакеты
1-1,5,9...
2-2,6...
3-3,7...
4-4,8...
Не произойдет ли потери пакетов?
Автор: Michigun
Дата сообщения: 29.06.2009 09:46

Цитата:
А точно ли так?
Ведь "round robin" работает, если я не ошибаюсь, так:
пути - пакеты
1-1,5,9...
2-2,6...
3-3,7...
4-4,8...
Не произойдет ли потери пакетов?

сейчас нет времени искать доку, но насколько помню я
round robin - это способ сделать так, чтобы к разным ЛУНам обращение шло по разным путям.
К одному ЛУНу по какому то одному, в отдельно взятый момент времени.
Автор: PhoenixUA
Дата сообщения: 29.06.2009 13:58
Максимально возможные параметры для vSphere:
http://www.vmware.com/pdf/vsphere4/r40/vsp_40_config_max.pdf
Автор: CHIRT
Дата сообщения: 30.06.2009 19:48
Сегодня столкнулся со следующей непоняткой:

Установил в целях тестирования Windows 7 на хост с ESXi4.

Пока выделял виртуалке 1 vCPU, она у меня стартовала и останавливалась без проблем как из консоли, подключенной к VC, так и из консоли, подключенной напрямую к хосту.

Потом я добавил виртуалке еще один vCPU. Запуск и остановка из консоли, подключенной напрямую к хосту, по-прежнему осуществляются без проблем, а, вот, при запуске из консоли, подключенной к VC, вылетает следующая ошибка:

Цитата:
Virtual machine has 2 virtual CPUs, but the host only supports 1. The number of virtual CPUs may be limited by the guest OS selected for the virtual machine or by the licensing for the host.

...и виртуалка не стартует.

Повторюсь, при запуске из консоли, подключенной напрямую к хосту, проблем не возникает.

Как только опять оставляю виртуалке 1 vCPU, она стартует из консоли, подключенной к VC, опять без проблем.

Добавлено:
Проверил с Windows 2003 sp2 (не полинился, добавил еще один vCPU) - таже "песня" - не стартует из консоли, подключенной к VC, а если стартовать из консоли, подключенной напрямую к хосту, то стартует без проблем.

Т.е. такая непонятка происходит, походу, со всеми виртуалками под Win (Lin не проверял - нет под рукой).

Добавлено:
Хост - HP DL 380 G4, 2 CPU (по два логических CPU в каждом - в свойствах виртуалок можно добавить до 4 vCPU), 12 Gb памяти. Лицензия на ESX - Up to 8-way virtual SMP.

Добавлено:
Да, в консолях я захожу под разными учетками:

- в консоли, подключенной напрямую к хосту, захожу под root;
- в консоли, подключенной к VC, захожу под некой доменной учеткой.

Но, обе учетки имеют роль Administrator в контексте безопасности ESX.
Автор: Dimsoft
Дата сообщения: 30.06.2009 22:15
подскажите на каком минимальном контроллере можно сделать RDM ?
сейчас esxi стоит на q35 чипсете sata на ich видит, storage создает, а RDM нет.
Автор: LevT
Дата сообщения: 30.06.2009 23:44
Dimsoft
вручную его надо создавать: из гуя опция засерена всегда, пока у хоста не доступа к тому, что он сам считает SAN-ом.

Если подключить к хосту хот бы один таргет, опция появится и позволит подключить этот таргет один раз (или типа сколько раз его подключать разрешено)

Что не мешает создавать фалый маппинга его из комстроки через vmkfstools -r или -z
первый параметр после опции - лун целиком

/vmfs/devices/disks/t10.ATA_____ST3320620NS_________________________________________5QF2MCZ

, второй параметр - /vmfs/volumes/Storage1/dummy.vmdk


- и потом подключить его к виртуалке как существующий диск.
Автор: murphy2000
Дата сообщения: 01.07.2009 09:56
CHIRT
подтверждаю, такая фигня из VC в принципе не запускаются машины, пишут ято неверные параметры, но потом работают и вполне нормально
Автор: CHIRT
Дата сообщения: 01.07.2009 10:12
murphy2000
У меня пока только на ESXi4 и, когда я еще один проц. добавляю. Вот, хочу теперь с ESXi3.5U4 проверить.

2 All

Подскажите неучу, как из unsupported mode выйти, чтобы опять нормальная консоль ESXi появилась?

Выполняю команду exit, так он выходит в состояние, скажем так, "после нажатия клавишь ALT-F1" (кто в курсе).
Автор: Michigun
Дата сообщения: 01.07.2009 10:46
CHIRT
ALT-F2
Автор: CHIRT
Дата сообщения: 01.07.2009 10:58
Michigun

Сработало!
Автор: Dimsoft
Дата сообщения: 01.07.2009 12:42

Цитата:
вручную его надо создавать

LevT
темный лес
спрошу проще (для меня )
можно диски разбитые в NTFS закинуть внутрь VM на esxi 3,5 который установлен на флешку ?

Цитата:
Если подключить к хосту хот бы один таргет

это любой ? можно просто по iscsi том левый подцепить или как ?

Страницы: 1234567891011121314151617

Предыдущая тема: Как поставить MS-DOS на флешку?


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.