Ru-Board.club
← Вернуться в раздел «Другие ОС»

» VMware ESX Server и VMware Infrastructure

Автор: brassnet
Дата сообщения: 21.01.2008 10:56
arsenalzp
Можно просто через клиета VC сделать перемещение на другой сторидж, а можно просто скопировать файлы дисков в нужное место, потом создать новые машины и в качестве ихних HDD указать нужные файлы.
Автор: arsenalzp
Дата сообщения: 21.01.2008 11:12
brassnet

Второй вариант пробовал, но почему-то не видно *.vmdk файлы. Может быть это связано с тем что перед переносом я заморозил ( Suspend ) виртуальную машину. Может быть потому, что файл диска сделан из нескольких частей ,а не одним файлом...?
Автор: brassnet
Дата сообщения: 21.01.2008 11:23
arsenalzp
Сделай машинам нормальный стоп с выключением, потом переноси.
Автор: LevT
Дата сообщения: 21.01.2008 11:57
arsenalzp

Цитата:
Можно ли как-то перенести виртуальные машини с VMware Workstation 5.5.1 на ESX Server 3.0.2 ?

только вчера этим занимался. В случае прямого копирования машинки иногда не стартуют, ругается на непонятный формат.

Рекомендую VMware-converter-3.0.2-59994.exe, прямо без кряка, в стартер моде. Файлы виртуалки должны быть ему доступны локально - может быть и через шару, но не уверен. В качестве бонуса он умеет в процессе перемещения добавить или обрезать лишнее место на vmdk.
Автор: MrEugene
Дата сообщения: 22.01.2008 10:03

Цитата:
Windows Unified Data Storage Server 2003 можно получить из обычного en_win_srv_2003_r2_ent_with_sp2_vl. Путем установки с обычным vl r2 серийником. Далее добавляем в реестр следующее:
[HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\ServerAppliance]
"R2Refresh"=dword:00000001
"Edition"=dword:00000002
После этого скачиваем http://microsoft.download-ss.com/downloads/X13-05230.iso
из него ставил
"Storage Management" - WindowsServer2003-KB919455-x86-ENU.exe
"Microsoft iSCSI Software Target" - iscsitarget.exe


да, спасибо, всё получилось а кластер для этого дела не пробовали делать? насчёт производительности, как я понял, лучше iscsi подымать под linux, мне было интересно, насколько надёжно всё это работает, одно дело править реестр для "поиграться", другое - реальная эксплуатация
Автор: anr69
Дата сообщения: 22.01.2008 14:13
MrEugene

Цитата:
да, спасибо, всё получилось а кластер для этого дела не пробовали делать? насчёт производительности, как я понял, лучше iscsi подымать под linux, мне было интересно, насколько надёжно всё это работает, одно дело править реестр для "поиграться", другое - реальная эксплуатация


в принципе у нас такая же проблема
брали просто стартер ...
на следующий будем апгрейтить до ентерпрайс и брать еще один сервер и все прикручивать к SAN
а сейчас хотелось сделать подстраховку на случай сбоя сервера.

Автор: Tonik123
Дата сообщения: 22.01.2008 18:05
Поскажите пожалуйста - можно ли увеличить размер уже существующего виртуального диска на ESX сервере.
Пояснения: Есть сервер, на нем диск - который забился под завязку, необходимо увеличить его размер...
Автор: alur2005
Дата сообщения: 23.01.2008 08:02
Удалено
Автор: arsenalzp
Дата сообщения: 23.01.2008 09:36
Добрый день.

Кто-то делал Link Aggregation на ESX Server? На прикрепленном изображении схема с офф.документа. Правда там не сказано как делать. Но догадки есть. Это они на виртуальном коммутаторе синим обозначили порт куда мы с помощью esxcfg-vswitch -L (Set pnic as an uplink for the vswitch. ) воткнули сетевушки? Там же можно указать на виртуальном коммутаторе vswitch[:ports] Тоесть когда я буду делать link надо указать для всех один номер порта.. Как такое возможно? Есть ли подробные доки по настройке этой самой Link Aggregation для ESX 3

Автор: Michigun
Дата сообщения: 23.01.2008 09:44

Цитата:
Поскажите пожалуйста - можно ли увеличить размер уже существующего виртуального диска на ESX сервере.
Пояснения: Есть сервер, на нем диск - который забился под завязку, необходимо увеличить его размер...

Виртуального диска - имеется в виду vmdk или vmfs? Первое не раз тут обсуждалось, второе
возможно при наличии SAN.

Цитата:
Кто-то делал Link Aggregation на ESX Server? На прикрепленном изображении схема с офф.документа. Правда там не сказано как делать. Но догадки есть. Это они на виртуальном коммутаторе синим обозначили порт куда мы с помощью esxcfg-vswitch -L (Set pnic as an uplink for the vswitch. ) воткнули сетевушки? Там же можно указать на виртуальном коммутаторе vswitch[:ports] Тоесть когда я буду делать link надо указать для всех один номер порта.. Как такое возможно? Есть ли подробные доки по настройке этой самой Link Aggregation для ESX 3

Как я понимаю, для ESX заявлена поддержка LACP. Т.е. к вирткоммутатору прицепляем 2 или больше сетевушки, включаем load balancing, и с коммутатором физическим он сам договаривается.

Добавлено:
Синим обозначен порт куда воткнута ВМ - я понимаю так, что он к LinkAgregation как таковому отношения не имеет.
Автор: arsenalzp
Дата сообщения: 23.01.2008 10:00
Но у них ветви связи от трех физических сетивушек идут к одному порту виртуального коммутатора. С чего бы это? Тоесть, я так понимаю, надо переопределить все линки -L физических сетивушек на один виртуальный коммутатор и в одни ПОРТ! Но как такое может быть?

А вообще попробую просто на вирт.коммутаторе включить load balancing.
Автор: Michigun
Дата сообщения: 23.01.2008 10:33

Цитата:
Тоесть, я так понимаю, надо переопределить все линки -L физических сетивушек на один виртуальный коммутатор и в одни ПОРТ! Но как такое может быть?

В том то и дело что никак. Думаю, просто совпадение, что эти три связи указывают на синий порт. И у нас нет возможности как то указать порт на вирт комм в который воткнута физическая сетевушка.
Автор: Michigun
Дата сообщения: 23.01.2008 13:42
arsenalzp
Много инфы в доках по ссылкам отсюда
http://communities.vmware.com/message/764867#764867
Автор: LevT
Дата сообщения: 23.01.2008 14:41

Цитата:
Виртуального диска - имеется в виду vmdk или vmfs? Первое не раз тут обсуждалось, второе
возможно при наличии SAN.


Экстенты добавляются и к локальному vmfs. По крайней мере на том же самом луне, с другими не пробовал.
Автор: arsenalzp
Дата сообщения: 24.01.2008 10:00
Добрый день.

Возникла идея создать с помощью HA кластер. Есть два идентичных сервера ESX3 ( HP ProLiant DL 365 G1). На одном из них сейчас крутятся ( спасибо за триальные лицензии Michigun ) 3 Виртуальные Машины. Можно ли на втором сервере (пока ничего на нем не крутиться, поэтому можно использовать как хранилище, доступное через NFS )сделать общее хранилище для первого, уже работающего сервера, перенеся все ВМ туда. Сделать все это по NFS. Чтоб в случае сбоя все машины первого сервера поднялись на втором, благодаря VMware HA. Просто сейчас нету лишнего отдельного стораджа ( FC,iSCSI )

Или уже сильно наивная схема?
Автор: vecialfor
Дата сообщения: 24.01.2008 10:59
arsenalzp


Цитата:
Можно ли на втором сервере (пока ничего на нем не крутиться, поэтому можно использовать как хранилище, доступное через NFS )сделать общее хранилище для первого, уже работающего сервера, перенеся все ВМ туда. Сделать все это по NFS.
-

Насколько я знаю, на сервере работающем под VMware ESX предусмотрена только функция NFS клиента, то есть его жесткие диски ты не расшаришь. А вот к каком нить стораджу ты обратиться сможешь. Я пытался как то поднять NFS - server на VMware ESX server, у меня не получилось. Если у тебя есть еще один сервак свободный пусть и слабенький, поставь на нем VMware ESX, объедини два сервака в кластер, а на HP поставь какую нить операционку и подними на нем NFS - server.
Автор: arsenalzp
Дата сообщения: 24.01.2008 11:16
Странно. Но у меня получилось это сделать. По крайней мере ресурс смонтировало. Правда вот что выдало на стороне клиента:


Цитата:

mount 10.7.7.130:/test /nfs
nfs server reported tcp not available, falling back to udp
Using NFS over UDP can cause data corruption.
Please refer to the WARNINGS section of the nfs(5) manual page.


Правда на vmfs не дает монтировать )
Автор: vecialfor
Дата сообщения: 24.01.2008 14:47
arsenalzp

То есть у тебя получилось поднять NFS - сервер на VMware ESX Server?? А можешь поподробнее рассказать?
Автор: Bander
Дата сообщения: 24.01.2008 15:19
arsenalzp
Думаю, что в такой схеме VMware HA работать не будет. Для того, чтобы работали Vmotion, DRS и HA нужен общий сторадж доступный для всех участвующих в кластере ESX серверов, а при твоей схеме общего стораджа нет.
Автор: arsenalzp
Дата сообщения: 24.01.2008 15:42
vecialfor

Как ни странно, но все так же как на Linux-станции.
Автор: CHIRT
Дата сообщения: 24.01.2008 19:38
2 arsenalzp

Если оба ESX-сервера удасться направить на сторидж второго ESX-сервера (там, где виртуалки храняться) по NFS, т.е. первый сервер - обыкновенный NFS, а второй - NFS сам на себя, то может и получиться. Получиться ли - не знаю, не пробовал.

Только схема очень кривая, потому как, в случае, если первый сервак крутит виртуалки со второго сервака по NFS, то это всё будет работать намного медленней, в отличие от того, когда первый сервак крутит виртуалки со своего локального сториджа (т.е. ресурсы используются не оптимально), а в случае, если запускать виртуалки на втором сервере, то пропадает сама отказоустойчивость, потому что, если второй сервак умрет, то и сторидж его умрёт, и первый сервак так и не сможет запустить виртуалки.

И, по-моему, прав Bander, без внешнего сториджа HA работать не будет.

Автор: LevT
Дата сообщения: 24.01.2008 21:29
CHIRT

Цитата:
пропадает сама отказоустойчивость,


отказоустойчивость в HA кластере разве на уровне хоста? Я до сих пор думал, что на уровне отдельных гостей.

Автор: LevT
Дата сообщения: 25.01.2008 00:14
ALL
Как сделать полный дамп сетевой конфигурации ESX сервера?

пытаюсь завести на другом железе установленный и настроенный хост: "PnP" реконфигурация отрабатывает здорово, хост заводится, но в результате упираюсь в отсутствие сети. Мало того, если потом вернуть хост на то железо, на котором он был изначально установлен, порты сервисной консоли так и остаются не работающими.

Рискну предположить, что слетает инициализация интерфейсов по макам или что-то в этом роде.


Добавлено:
ALL

чем перепаковать rpm-ки под виндой? Хочу попробовать модифицировать файлы /etc/vmware/pciid/driver.xml прямо в установочном диске сервера.


Добавлено:

Блин, только что заметил, что втихаря появилась поддержка сетевух 3com! И ещё много там открытий чудных...
(обломс: моя 3C905C-TX, хотя прекрасно видна vmkernel-у, не поддерживается инсталлятором, который по прежнему требует вставить что-то вроде e100 или tg3)
Автор: arsenalzp
Дата сообщения: 25.01.2008 08:20
А возможны варианты с распределенным хранилищем? Что-то типа DRBD.
В принципе можно поднять это на каждой ВМ, которая крутиться на ESX-сервере. Благо их не много.
Автор: Oleg_Kurilin
Дата сообщения: 25.01.2008 09:54
arsenalzp
А смысел? Это для того, что бы всё хранилище упало, если один сервер навернётся? Хорошая отказоустойчивость. Ну или часть ресурсов не будет доступно, так чем это лучше локальных хранилищ, когда сервер навернётся только его машины на его хранилище не будут доступны.
Короче - нет! Хотя средствами других производителей можно сделать и репликацию и зеркалирование, но только не на самом ESX-сервере. Сам ESX-сервер может доступаться к хранилищю только по:
1. оптика
2. iSCSI
3. NFS
Другого не дано.
Автор: Bander
Дата сообщения: 25.01.2008 10:06
arsenalzp
Вариант с распределенным хранилищем возможен, скорее всего, только в том случае, если все ESX-серверы видят это хранилище как один ресурс доступный по NFS, FC или iSCSI. Поддержка распределенности самого хранилища при этом должна будет выполняться неким другим ПО или железом (что-нибудь типа виртуализации для SAN или NAS), а это дорогое и/или весьма непростое решение.
Про кластеризацию, HA, DRS и т.п можно почитать в Resource Management Guide. Там есть раздел Understanding Clusters. Ну и далее...

ALL
Кстати, не отождествляйте Linux-консоль ESX-сервера с самим ESX-сервером. По некоторым данным это всего лишь специфическая виртуальная машина (сравните ESX server 3.5 и 3i)
Автор: arsenalzp
Дата сообщения: 25.01.2008 15:13
Вот к стати, хорошая статья:
http://www.petri.co.il/iscsi-san-vmware-esx.htm

Возник вот такой вопрос: в конфигурации ESX HOST-а есть пункт "Storage Adapters" присутствует iSCSI Software Adapters
( vmhba40) - что это за оборудование? Возможно ли его "расшарить" для доступа по iSCSI с других хостов инициаторов?
Автор: CHIRT
Дата сообщения: 25.01.2008 20:49
2 LevT


Цитата:
отказоустойчивость в HA кластере разве на уровне хоста? Я до сих пор думал, что на уровне отдельных гостей.


Извини. Я не понял твой вопрос.

Упрощённо о HA.

Два сервера (1 и 2) в кластере смотрят на один внешний сторидж. На сторидже лежат виртуалки. Виртуалки запущены, например, на сервере 1. Если сервер 1 падает, то виртуалки автоматически перезапускаются на сервере 2. Это сделать легко, потому как сторидж остался доступным, и виртуалки доступны. НА - это кластер отказоустойчивости.

А если это локальный сторидж сервера 1, то если умер этот сервер, то и сторидж его будет недоступен, и, следовательно, не смогут перезапуститься виртуалки на другом сервере. Какая тут отказоустойчивость? Поэтому для HA нужен внешний сторидж.

А кластер распределения нагрузки - это DRS. По смыслу он работает так же, как и HA, только процес перезапуска виртуалок на другом сервере инициируется не из-за отказа сервера, а из-за нарушения баланса нагрузки. Например, серверу 1 нехватает вычислительной мощности, а сервер 2 простаивает, тогда часть виртуалок, крутящихся на сервере 1, перезапускаем на сервере 2.
Автор: LevT
Дата сообщения: 25.01.2008 23:51
CHIRT

видимо, я смешивал два вида кластеров. Если на одном из серверов кластера виртуалка X не откликается, то она откликнется на других серверах - это кластер DRS (вырожденный случай), так? А кластер НА, судя по твоим словам, относится именно что к хосту в целом, и мне не в тему. Я правильно понял?

Допустим, на одном из серверов я намудрил что-то с вирт. свитчами, и виртуалка X на нем потеряла коннективити: мне нужно, чтобы юзвери ничего не заметили и продолжали пользоваться сервисами этой виртуалки из-под других хостов - такого можно достичь? Понятно, что против отключения vmkernel приема быть не может - но я не об этом.
Автор: Notser
Дата сообщения: 26.01.2008 01:41
LevT
Да, ты путаешь. HA и DRS работают на уровне хоста (и обеспечивают его доступность).
Гостя (виртуалку) надо прикручивать к кластеру Майкрософт или Веритас и тп

Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110

Предыдущая тема: IMS REAL/32 v7.8x ... 7.94 (Buy?)


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.