Ru-Board.club
← Вернуться в раздел «Другие ОС»

» VMware ESX Server и VMware Infrastructure

Автор: Oleg_Kurilin
Дата сообщения: 08.02.2008 18:55
LevT

Цитата:
ограничение искусственное?

Не совсем. Просто разработчики в 3i положились на ограниечение установки, и решили не дублировать такое-же ограничение на создание стораджа.
Автор: Notser
Дата сообщения: 08.02.2008 21:42
LevT

Цитата:
У самого пока руки не дошли: научите меня, пожалуйста, более прогрессивным методам оного, нежели остановка виртуалок и ручное копирование.

Посмотри здесь _http://www.esxpress.com/index.php
и всем советую кто не видел, там есть бесплатный вариант.
Автор: LevT
Дата сообщения: 10.02.2008 10:29
Notser
спасибо, выглядит вкусно..

All
1) А вот что за фигня с виртуальным видеодрайвером винды в ESX3.5? Если его ставить сразу на сервере - то разрешение гостя не ресайзится вслед за окном консоли (а если явно сказать Fit Guest - говорит, что разрешение инвалидно; сам драйвер предлагает небольшой выбор разрешений для ползунка). Если же импортировать машинку из-под воркстанции (можно даже потом проапгрейдить вмтулзы) - то ресайзится нормально, фиксированного выбора нет.

2) Что означает в настройках гостя SCSI Bus Sharing третий режим - Physical (Virtual disks can be shared between virtual machines on any server)?

3) Склонировал свежеустановленный 2008 сервер x64 с некоторым софтом в шаблон, указал использовать сжатие вирт. дисков. Ужалось чуть ли не вдвое. Что это за магия?
Автор: Oleg_Kurilin
Дата сообщения: 10.02.2008 11:19
LevT

Цитата:
2) Что означает в настройках гостя SCSI Bus Sharing третий режим - Physical (Virtual disks can be shared between virtual machines on any server)?

Если перевести, то будет немного понятнее: виртуальный диск может быть доступен виртуальным машинам на различных серверах.
Связано это с блокировками устройств, в этом случае блокировки SCSI устройства не будет, и к нему могут обращяться виртуальные машины с других хостов, а также физические машины. Нужно это ну например для т.н. outbox cluster.
Автор: LevT
Дата сообщения: 10.02.2008 11:31
Oleg_Kurilin

всё равно непонятно. Вот есть в виртуалке хост-адаптер, поставили его в этот третий режим. Что и где ещё надо сконфигурить, чтобы проявилась разница между режимами?
Автор: Michigun
Дата сообщения: 10.02.2008 13:08
LevT
вот у тебя есть vmdk файл. Ты можешь его захотеть прицепить еще к одной ВМ - для MSCS например.
Если контроллер "no sharing", ты этого не сделаешь.
если "Virtual" - то сделаешь, но вторая ВМ должна быть на этом же хосте.
Если "Physical" - то ВМ может быть на другом хосте.
Автор: LevT
Дата сообщения: 10.02.2008 13:38

Спасибо. Непонятно пока, что нужно проделать с хостом и/или настройками виртуалки, чтобы прицепить к ней диск, расположенный на другом хосте.
Автор: Mup0Boe_3Jlo
Дата сообщения: 10.02.2008 21:12
LevT
Цитата:
что нужно проделать с хостом и/или настройками виртуалки, чтобы прицепить к ней диск, расположенный на другом хосте
нужно проделать подключение общего хранилища. И помещение файлов виртуальной машины на это хранилище. Т.е. SAN (возможно, также будет работать с NFS, но это я не пробовал).

в данном случае «машина находится на хосте N» — значит, что не физически файлы расположены на DAS хоста N, а что машина запущена и выполняется на этом хосте.

соответственно, если установлен Physical Sharing, то файл VMDK может быть одновременно подключен к двум виртуальным машинам. Из которых одна выполняется на хосте N, а другая на хосте M. Но сам файл VMDK при этом находится на SAN. К которому одновременно подключены хосты N и M.

в случае Virtual Sharing требуется, чтобы обе машины выполнялись на одном и том же хосте. И в этом случае уже неважно, где находится фал — на DAS или на SAN.

Добавлено:
Michigun
Цитата:
Ты можешь его захотеть прицепить еще к одной ВМ - для MSCS например.
кстати, ты уже в курсе, что это не работает с Windows Server 2008? Дело в том, что в WS2008 кластеринг требует либо SCSI-3, либо FC.

лично я вижу решение этой проблемы, например, так. Потребуется создать «виртуальный FC HBA», к которому будут подключены устройства через NPIV. То есть сейчас они подключаются к обычному виртуальному контроллеру SCSI, но ведь, можно, наверное, создать виртуальный контроллер FC?

ну или «проапгрейдить» виртуальный контроллер SCSI, чтобы он поддерживал команды SCSI-3. Даже не знаю, что из этих вариантов будет проще для VMware и когда мы увидим решение этой проблемы.
Автор: alexptll
Дата сообщения: 11.02.2008 12:32
Нужен совет!

Есть кластер из 3 трех хостов ESX 3.0.1 (35804)
также VC 2.0.1 (33643)
Исп. единое хранилище SAN (там все виртуалки)
VMotion, DRS, HA

Все ломаное

На этом крутится 40 виртуалок

Купили лицензии - нужно перейти на 3.5

Читал на офф.сайте документацию
Последовательность апдейта след.
сначала VC
потом сервера (мигрируя машины на 2 из 3 серваков и апдейтить 1)
Все просто и велеколепно НО это если и до этого была лицензия

Если кто имел подобный опыт или просто посоветует что буду рад!
Может существуют подводные камни о которых не знаю
например такие

1. Не умрут ли хосты если переинсталю VC 2.5
потом просто пересоздам кластер
Например читал что без определенного патча на 3.0.1 и VC 2.5 наблюдается
unespet. reboot виртуалок
А ставить патчи на хосты боюсь ХЗ будет ли работать дальше...
Или может попробовать обновится на хостах, а потом VC ?

2. Как вариант можно ли поставить VC на другом сервере и попробовать переподлючить хосты (например хотя бы 1) и попробовать протестить его поведение
Как вооще узнать что он не "хавает" лицензию

3. Зачем вообще ламают в двух местах и на серваке и на Виртуал Центре ?
Какая вообще зависимость ?????


З.Ы.
Опыт работы с VmWare ESX оставляет желать лучшего (пару месяцев)
Убедить начальство что том что "лучшее-враг хорошего" немогу, да и на самом деле
почему бы не перейти на лицензию
Большое за ранее спасибо









Автор: Serjevski
Дата сообщения: 11.02.2008 13:33
Проблема с производительностью, помогите кто может...

Есть host: 2*QuadCore2 Intel Xeon E5320 / 16GB FBDIMM
К нему по FC через Qlogic FC-HBA подключена СХД Xyratex F5402E В которой установлено 6 SATAII дисков. Крутится в данный момент 5 всего виртуалок, одна из них Exchange Server. И как-то все это медленно очень работает.

Вот вопрос как определить узкое место? по графикам видно что памяти у хоста занято всего 7 гигов из 16, процессоры похоже тоже балду пинают, я грешу на дисковую подсистему. Возможно замена SATA дисков на SAS (полка позволяет) решит проблему... а возможно нет. Выложить 3 тыщи баксов просто так, "на попробовать" -- начальство сожрет.

Кто может порекомендовать какой-то более или менее научный способ поиска узкого места?
По статичтике на контроллере СХД она тоже не больно-то загружена...
Автор: dg
Дата сообщения: 11.02.2008 13:50
alexptll
Цитата:
3. Зачем вообще ламают в двух местах и на серваке и на Виртуал Центре ?
Какая вообще зависимость ?????
не знаю, каким именно кряком вы пользовались, но общеизвестный принцип таков.

1. Хосты проверяют лицензию в тот момент, когда включают или мигрируют машину. Т.е. запуск машины требует лицензии. Чтобы обойти это, ломают хост.

2. VC проверяет лицензию при старте самого сервера, а затем определяет, есть ли лицензии на VMotion и аналогичные функции. Этот функционал инициируется и координируется с VC, поэтому он и занимается лицензированием здесь. Поэтому для того, чтобы стали доступны эти возможности, и ломают сам VC.

В чём вообще заключается взлом? Просто некоторые файлы в установленном хосте и VC заменяются на изменённые. Следовательно, для того, чтобы перейти на лицензированное использование, потребуется заменить эти файлы обратно. И можно ничего не переустанавливать и не пересоздавать. Достаточно того, чтобы после замены файлов, серверам стала доступна подходящая лицензия.
Автор: Notser
Дата сообщения: 11.02.2008 15:05
alexptll

Цитата:
мигрируя машины на 2 из 3 серваков и апдейтить 1

Если не очень навороченная структура вирт. свичей и пулов, то проще переставить начисто.

Цитата:
Как вариант можно ли поставить VC на другом сервере и попробовать переподлючить хосты (например хотя бы 1) и попробовать протестить его поведение

Работает нормально. Я делал по такой схеме:
1. Преносишь гостей с 1 хоста.
2. Ставишь 3.5
3. Ставишь новый VC и сервер лицензий
4. цепляешь к нему (VC 2.5) хост 3.5 и 3.х
5. мигрируешь машинки
6. обновляешь tools

Serjevski
Xyratex F5402E медленно работает с SATA почитай на ixbt и в форуме тринити например.
SAS у меня работает терпимо, но логи и база на двух разных RAID 10
Автор: Serjevski
Дата сообщения: 11.02.2008 15:53
Notser
Спасибо а можно поточней ссылки на где почитать?
Автор: PhoenixUA
Дата сообщения: 11.02.2008 15:57

Цитата:
Кто может порекомендовать какой-то более или менее научный способ поиска узкого места?

Наверняка дисковая. Смотреть в перфмоне среднюю длину очереди диска. Если постоянно больше 2-х - явный затык...
Автор: LevT
Дата сообщения: 11.02.2008 16:01
Notser

Цитата:
SAS у меня работает терпимо, но логи и база на двух разных RAID 10


по великому могучему учению иксбитовской тусы (они же тринити) - кажется, ты не прав. Только иопсы теряешь...

Всё надо сувать в один райд 10, и оттуда уже отрезать луны. Если я правильно понял учение.
Автор: alexptll
Дата сообщения: 11.02.2008 16:08

dg
Огромное спасибо

Notser
Огромное спасибо

Автор: Serjevski
Дата сообщения: 11.02.2008 16:55
PhoenixUA

то есть очередь 2 это уже много? Я как-то думал что 2 ка это так -- чутьчуть...
Хорошо, а спасет ли меня перехода на SAS? насколько быстрее будет?
Автор: PhoenixUA
Дата сообщения: 11.02.2008 22:01
Serjevski
Раза в 2 - 3, лучше 15-тысячники поставить.
Можешь еще на ХоБоТе спросить, в ветке по серверам.
Автор: Frankenshtine
Дата сообщения: 12.02.2008 11:18
Люди, помогите Поставил esx 3.5, на этапе установки оно нашло сетевушку NVidia Ethernet Controller, спросило про настройки. Я расписал (192.168.0.10/24, gw 192.168.0.1). После завершения установки оно написало - всё, типа, заходите на http://192.168.0.10 и качайте клиент, работайте. Однако адрес не отзывается...
Полез в консоль - вижу в ifconfig для сетевыхинтерфейса: vswitch0 и vmnic0. Первый имел прописанным тот самый адрес, который я указывал на этапе установки - но это не реальная сетевушка! А вот второй при ближайшем рассмотрении ею оказался. Вот только у него не назначено никакого адреса, и, более того, я даже не могу назначить его руками! ifconfig vswitch0 192.168.5.10 прошло успешно, да и конфиг я нашёл для него, где править дефолт. А вот ifconfig vmnic0 192.168.0.10 говорит - permission denied, и cannot assign requested address, и маску, если задаю. Как разрулить? Сервак недоступен по сетевушке.
ps в /etc/sysconfig/network в качестве гейтвей девайса был прописан vswitch0 - поменял на vmnic0 - ничего не поменялось, при пинге 192.168.0.1 говорит сеть недоступна (ifconfig без параметров показывает три интерфейса, lo, vswitch0 и vmnic0, т.е. физический интерфейс up)

[Добавлено] ifconfig vmnic0:0 192.168.0.10/24 сработало, появился алиас с нужным адресом. Однако, нет маршрута на сеть 192.168.0.0/24. При попытке обращения к ней - network unreachable. Делаю route add -net 192.168.0.10/24 gw 192.168.0.1 dev vmnic0:0 снова получаю "permission denied"...
Откопал esxcfg-nics -l - выдаёт что интерфейс включен, 100 мбит/c, фуллдуплекс, NVidia corporation... Но что с ним сделать, чтоб заработало)
Автор: LevT
Дата сообщения: 12.02.2008 11:49
Frankenshtine
забудь про ifconfig. хорошо бы в студию результаты

esxcfg-nics -l
esxcfg-vswitch -l
esxcfg-vswif -l
Автор: Frankenshtine
Дата сообщения: 12.02.2008 11:55
esxcfg-nics -l см. выше, уже отписал
esxcfg-vswitch -l показывает один свич на VLAN ID 1, с аплинком vmnic0
esxcfg-vswif -l показывает интерфейс vswitch0
если я не путаю вывод двух этих команд - приходится переключаться физически Скопипастить не могу.

Вот немного понабирал вслепую Уточнение: ifconfig показывает не vswitch0 а vswif0 интерфейс, я ошибся в написании.
По командам вывод (без шапки):

esxcfg-vswif -l
vswif0 service console 192.168.5.10 255.255.255.0 192.168.5.255 true false

esxcfg-vswitch -l
vSwitch0 64 4 64 1500 vmnic0

в роутинге два маршрута, на две сетки, обе на девайсе vswif0
Автор: Serjevski
Дата сообщения: 12.02.2008 11:57
PhoenixUA
А скажите коллега, perfmon по дефолту предлагает scaling 100 то есть мы видим на графике значение умноженное на 100, это так оставлять? То есть по сути тогда критическое значени очереди это 0.02?
Автор: LevT
Дата сообщения: 12.02.2008 13:48
Frankenshtine
кажется, имеет смысл прибить всё и пересоздать моим скриптом: отмотай две-три страницы назад

Скрипт - лишь заготовка, но подойдет именно для этого случая, когда всего добра (vmnic0, vSwitch0 и vswif0) ровно по одной штуке
Автор: Notser
Дата сообщения: 12.02.2008 14:12
Serjevski
_http://www.3nity.ru
_http://forum.ixbt.com/?id=66
_http://www.trinity.su/articles
Автор: Serjevski
Дата сообщения: 12.02.2008 14:24
Notser
Спасибо за посыл... Почитаю конечно, но там искать долго, надеялся на простой ответ...
Автор: Serjevski
Дата сообщения: 12.02.2008 20:49
Коллеги, помогите кто может!!!!

Ну почему может не срабатывать автосатрт виртуальных машин?? Что им мешает, где копать, куда смотреть?

Ессно в конфигурации хоста все прописано и галки стоят... но после ребута не стартуют
Автор: sani01
Дата сообщения: 12.02.2008 21:03
Гуру подскажите , новичек. Установил ESX3.5 на DELL PE1750 .
При первой загрузке сообщение
Mounting root failed.....
TO collect logs for VMWARE connect a USB storadge device and run "bin/vm-support <devicename>" .....
В BIOS сервера отключал USB поддержку , не помагает. Что предпринять ?
Надо смонтировать USB ? А как ?
Автор: ASKovalev1987
Дата сообщения: 13.02.2008 03:14
Решил поставить ESX 3.0 дома на Workstation 6.0.
Когда сервер стартует - сначала при загрузке все идет быстро, но когда начинает грузиться сама сервисная консоль - полная загрузка процессора и время загрузки около 2х часов (специально ради интереса проверял :)
AMD64 3200+, 4GB DDR. Это возможно из-за одногопроцессорной конфиги? Что-то я в этом оч сильно сомневаюсь, если честно.
Автор: LevT
Дата сообщения: 13.02.2008 07:36
ASKovalev1987
делал по статье, vmx правил?


Добавлено:

All
А нафига вообще вмваре тулзы под ESX ставят свой редиректор (hgfs)? Забываю его сразу же отключать, и снова словил в госте дикие труднообъяснимые глюки, которые прошли сразу после его отключения.

На сей раз не ходил трафик TCP3389 в 2008 сервере с включенной терминальной ролью. Причем не только входящий, но заодно и исходящий. Но если совсем отключить фаервол, то входящий ходил, потому я решил, что это фаервол гадит. Исходящий заблокировался не сразу, но, кажется, после включения Network discovery...
Автор: trepov
Дата сообщения: 13.02.2008 10:10

Цитата:
Serjevski

По Raid 10 производительность почти линейно пропорциональна количеству включённых в него дисков.
Как вариант сделать один большой Raid10 и на нём нарезать LUN-ы под Ваши задачи.

Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110

Предыдущая тема: IMS REAL/32 v7.8x ... 7.94 (Buy?)


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.