Ru-Board.club
← Вернуться в раздел «Другие ОС»

» VMware ESX Server и VMware Infrastructure

Автор: Remzy
Дата сообщения: 07.04.2008 15:32
Уверен, что данная задачка имеет решение.
Имеются сервера с процессорами 4 по 4, 32 гигабайта памяти.
Имеется дисковый массив СХД на фибра каналах, где ESX сервера загружаются с персональных десков, есть общий диск на VMFS где развернуты виртуальные машины.
Есть так же диск, который в режиме RDM, Raw Device Mapping подключен всем виртуальным машинам. При этом они реально работают и запускаются в этом режиме. НО данные на СХД остаются только от последней потушенной, а при создании данных на одной ВМ на другой этих данных не видно. Т.е. нужно какое-то решение, что б ОС увидели данные друг-друга.

Я так же смотрю в сторону Veritas Storage Foundation for Windows
Возможно это решение. Может будут какие предложения.

Нужно, что б гостевые ОС использовали единый диск и единое файловое пространство на пределе скоростных возможностей.
Автор: Oleg_Kurilin
Дата сообщения: 07.04.2008 15:45
Remzy

Цитата:
Нужно, что б гостевые ОС использовали единый диск и единое файловое пространство на пределе скоростных возможностей.

NTFS не будет этого делать, как не крути. Смотреть надо в сторону сторонних производителей, решения которых совсем небезплатные. В любом случае обсуждение этих вопросов в этой теме
Автор: Remzy
Дата сообщения: 07.04.2008 15:55

Цитата:
NTFS не будет этого делать, как не крути. Смотреть надо в сторону сторонних производителей, решения которых совсем небезплатные. В любом случае обсуждение этих вопросов в этой теме

Почему не в тему? Вопрос непосредственно по ESX сервру.
Вот ели б это было по NTFS системе то явно не в тему. Нужно соединить именно виртуальные сервера.
Сторонние производители это общий ответ. А за конкретным я сюда и обратился, но как раз в рамках ESX сервера. Уверен, что кто-то уже делал это, т.к. нужное решение.

ИЛИ ПОШЛИТЕ МЕНЯ в нужную тему
Автор: RemComm
Дата сообщения: 07.04.2008 16:56
Remzy

Цитата:
Почему не в тему? Вопрос непосредственно по ESX сервру.
Именно не в тему. Это вопрос непосредственно по винде. VI не занимается организацией шаренных разделов _СРЕДСТВАМИ_ гостевых ОС. VI предоставила шареный раздел, но коль винда его не понимает ибо так заложено природой, то VI говорит "не моя проблема". Потому что мухи - мухами, но котлеты всегда отдельно. Вот автомобили ведь почему летают только на крайне небольшой высоте - не предусмотрен функционал.

Цитата:
ИЛИ ПОШЛИТЕ МЕНЯ в нужную тему
Извольте сюда
Автор: beremour
Дата сообщения: 07.04.2008 23:01
Remzy уважаемый, ну как же вам еще объяснить что ESX _НЕ_КЛАСТЕРИЗУЕТ_ гостей и вообще как вы себе это представляете ? встаньте на место разработчика. Практически единственным путем представляется создание специальной кластерной файловой системы внедряемой в "гостей" (по типу VMware tools). Возможность видеть один винт разными компами для кластера еще пол-дела, нужна так же логическая поддержка со стороны тех ОС которые хотят участвовать в кластере

Да и нужность этого дела вообще весьма сомнительна. Если задача реально нагружена и требует кластеризации - гоняйте ее без виртуализации на чистом железе и используйте средства кластеризации рекомендуемые/проверенные под данную ОС/Задачу

Автор: Michigun
Дата сообщения: 08.04.2008 07:46

Цитата:
Исходя из предоставленной Remzy информации: ESX + Win + сиквел - речь не идет высокой производительности. Вот тут как раз ни о каком RDM речь идти и не может. Не умеет винда с сиквелом данные на сырых томах размещать. Посему можно говорить о например тех же MelioFS или MetaSAN. Есть у меня правда сомнения что эти технологии будут работать на SCSI - надо пробовать. Им надо FC, а VI не предоставляет гостю такого типа устройств.

не могли бы прокомментировать выделенное???
Как винда в ВМ сможет отличить - тот локальный дтск, что ей подсовывают - RDM или vmdk???
Автор: RemComm
Дата сообщения: 08.04.2008 08:00
Michigun

Цитата:
не могли бы прокомментировать выделенное???
Мог бы. Винде, для того, чтоб разместить данные на томе, обязательно (!) надо файловая система. Если на томе нет файлухи - данных туда она не положит. Юниксы и прочий юникс-вей позволяет использовать сырые (неразмеченные) тома для размещения данных. Именно это и подразумевается в выделенном вами фрагменте. К примеру, Оракл под юникс-веем умеет использовать сырые тома.


Цитата:
тот локальный дтск, что ей подсовывают - RDM или vmdk???
А винде на это монопенисуально - в обоих случаях она видит устройство одного и того же типа.

А вот теперь малость офтопа, дабы прекартить разговоры на эту тему: Remzy пользуйте MetaSAN - я проверил работу под VI, делает как раз то, что ты хочешь. Простым (но не грамотным) языком - шарит одну файловую систему между несколькими виртуальными виндами для concurrent IO. Все, что вам надо - присутствует на руборде.
Автор: Michigun
Дата сообщения: 08.04.2008 10:14

Цитата:
Мог бы. Винде, для того, чтоб разместить данные на томе, обязательно (!) надо файловая система. Если на томе нет файлухи - данных туда она не положит. Юниксы и прочий юникс-вей позволяет использовать сырые (неразмеченные) тома для размещения данных. Именно это и подразумевается в выделенном вами фрагменте. К примеру, Оракл под юникс-веем умеет использовать сырые тома.

а смысл в пользовании томом без файловой системы?


Цитата:
А винде на это монопенисуально - в обоих случаях она видит устройство одного и того же типа.

ну да, это я и имел в виду.
Видимо, разные понятия вкладывали в "RAW" - я имел в виду RAW-device mapping со стороны ESX, а вы - использование его в "сыром" виде уже внутри гостя.
Автор: funtopgun
Дата сообщения: 08.04.2008 10:42
RemComm
Remzy
MetaSan не рекомендую, так как основное назначение работа с видео. Работа с видео и базами данных очень разные вещи для дисковой подсистемы, а metasan будет прослойкой между вашей аппликацией и диском, соответственно логика работы MetaSan для SQL не подойдет. И кроме того для MetaSan нужен FC, а если по сети(виртуальной в vmware) то это режим failover, а в режиме failover этот софт работает по протоколу iSCSI С чего начали к тому и пришли....
Давайте не изобретать велосипед, каждой машине свой HDD!
Чем не подходит не пойму. Нужно увеличить, выключил, изменил размер диска в VI, Acronis Disk Director подправил размер патриции и все, 5 минут максимум. И это только если неправильно спланировали наперед пространство под базу, или раз в год....
Еще раз спрашиваю чем не подходит виртуальный отдельный диск каждому серверу, чем это плохо, где VMWare говорит что это не правильно? если не нравиться то Windows Unifird Data Storage без VMWare, но концепция та же
Автор: RemComm
Дата сообщения: 08.04.2008 10:55
funtopgun

Цитата:
так как основное назначение работа с видео
Основное назначение volum-level sharing. Базы даных - в числе прочих клиентских приложений (инфа с оффсайта). LAN Failover включается только тогда, когда общий том не подключен к узлу, иначе работает непосредственно с томом и сеть использует для синхронизации метаданных. Я же ее не советую из-за отсутствия каких-либо достоверных данных об удачном использовании. Только "на свой страх и риск".


Цитата:
Чем не подходит не пойму. Нужно увеличить, выключил, изменил размер диска в VI, Acronis Disk Director подправил размер патриции
Видимо этим и не подходит


Цитата:
где VMWare говорит что это не правильно?
Нигде не говорит. Боле того - вообще умалчивает. Вопрос не о правильности ибо сразу говорили - не правильно это. Вопрос упирается в "желаю чтоб было так". Не более того (исходя из предоставленной в топике информации).

Все... Это уже оффтоп.



Добавлено:
Michigun

Цитата:
а смысл в пользовании томом без файловой системы?
Для того же Oracle определенный смысл есть... Зависит от приложения, но это уже специфика.
Автор: Remzy
Дата сообщения: 08.04.2008 11:21

Цитата:
Чем не подходит не пойму. Нужно увеличить, выключил, изменил размер диска в VI, Acronis Disk Director подправил размер патриции и все, 5 минут максимум. И это только если неправильно спланировали наперед пространство под базу, или раз в год....
Еще раз спрашиваю чем не подходит виртуальный отдельный диск каждому серверу, чем это плохо, где VMWare говорит что это не правильно? если не нравиться то Windows Unifird Data Storage без VMWare, но концепция та же


Принципиальный вопрос
У меня десяток БД на M$ SQL и размеру у них по 10 и более гигобайт
они активно растут и суммарно выделенной пустое дисковое пространство получится нереальным, учитывая место под ТЕМП SQL. + производительность должна быть на высоте.
Суммарно все БД занимают не менее 160 гигов + логи + ТЕМP SQL и может вырастать до 40 гигов на базу

а работать сиатема должна 24х7 потому и ESX что б при проблемах физического сервера в рамках единого стораджа в онлайне переместить виртуальную машину на другое железо

Раз тема типа ОФФТОП... предложу продолжить обсуждение тут
спасибо за терпение админов
http://forum.ru-board.com/topic.cgi?forum=62&topic=13720
Автор: VMPhantom
Дата сообщения: 08.04.2008 17:19
SOS У меня ESX3.0.2 упал - то есть ping сервера идёт, а infrastructure клиент не подключается, виртуалки не пингуются. Иногда при загрузке в разных местах ошибки выдаёт и до полной загрузки сервера(настройки сетевого адаптера) дело не доходит.
Проблемы появились после того как в серверной пропадало электричество в один день и на след. день останавливался кондиционер.

То есть причин сбоя я вижу 2: перегрузка блока питания, или неполадки жестких дисков.

Как сделать scandisk в ESX, нужно ли для этого загружаться с CD-rom образа VMwareESX. В данной ситуации используется vmfs и как её проверять на целостность я не знаю.

Помогите кто сталкивался с подобной ситуацией.

Всем заранее спасибо.
Автор: Oleg_Kurilin
Дата сообщения: 08.04.2008 17:32
VMPhantom
У кого-то уже пробегала подобная проблемма, точно не скажу на какой странице, но в кратце примерно так: после внезапного выключения машины начались странные глюки, человек просил помощи как отремонтировать, но кроме того, что поставить поверх никаких советов небыло. Человек помучился немного с ремонтом, но в результате переставил заново.
Лично от себя посоветую не трать время, установи с сохранением хранилища, и настрой параметры с нуля. По опыту VMFS достаточно устойчива к сбоем, чего не скажешь о ext. Другое дело, что во время перегрева могли испортиться образы дисков (данные внутри), и здесь ничего не поможет кроме как восстановление из резервных копий.
Ну и конечно, перед тем как заниматься разбором полётов, проведи полный тест железа.
Автор: vecialfor
Дата сообщения: 09.04.2008 08:31
VMPhantom

Цитата:
У меня ESX3.0.2 упал - то есть ping сервера идёт, а infrastructure клиент не подключается, виртуалки не пингуются. Иногда при загрузке в разных местах ошибки выдаёт и до полной загрузки сервера(настройки сетевого адаптера) дело не доходит.
Проблемы появились после того как в серверной пропадало электричество в один день и на след. день останавливался кондиционер.
- у меня было нечто похожее и не один раз. Есть несколько вариантов:

1. Если сервак пингуется и через infrastructure client клиент не соединяется, тогда (если ты заходишь через клиент в виртуальный центр) то перезагрузи виртуальный центр попробуй подконнектиться еще раз.

2. Если не получается первое, и в консоль ты зайти можешь на ESX, тогда удали и пересоздай все интерфейсы на серваке. (У меня такое было, как раз после сбоя энергии, помогло)

3. Можно сделать так, как тебе посоветовали, переустановить ESX с сохранением хранилища, это помогает ( я сам пробывал))) единственное, если у тебя сервак пропатчен, придется не только заново его настраивать, но патчить, а это займет какое то время.


Автор: GTHack
Дата сообщения: 09.04.2008 16:08
материнка Intel S500VSASASR + опция RAID5 AXXRAKSW5
на которой собран RAID5 из 4х SAS винтов

при установке ESX Server 3.5 не видит массив ( !!!
хелп !
как можно победить ?

очень надо !
буду благодарен любой помощи (ссылки советы ...)
Автор: LevT
Дата сообщения: 09.04.2008 19:43
GTHack
Забей пока на то, что не видит при установке: скорее всего можно будет подпилить, и будет видеть при работе. Надо узнать как этот контроллер звали в девичестве (выбрать подходящий драйвер)

Последовательность такая: редактируешь соответствующий драйверу файлик, например /etc/vmware/pciid/megaraid_sas.xml : добавляешь туда раздел или просто правишь по живому pciid похожего контроллера

потом выполняешь
#esxcfg-pciid
#esxcfg-boot -p
#esxcfg-boot -b
#reboot

у меня таким образом заводятся два "невидимых" при установке контроллера: LSI 8300XLP (это как раз ZCR; работает с драйвером megaraid_sas) и SATA MegaRaid 8x (c драйвером megaraid2).
Автор: vecialfor
Дата сообщения: 10.04.2008 13:29
Объясните пожалуйста для чего нужна функция Convert to Template в VMware Virtual Center??
Автор: Alexey777555
Дата сообщения: 10.04.2008 14:38
Alexey777555


Цитата:
Цитата:guest memory usage + overhead != host memory



Michigun


Цитата:


да, я сам не раз наблюдал расхождения того, что "должно быть", с тем, что есть.
Но в теории эти показатели - именно то, что я сказал.
http://communities.vmware.com/message/460945


У меня на всех серверах ESX 3.5, 3.5i разница между guest memory usage + overhead
и host memory всреднем 7-9 раз.

На ESX 3.0.1 VI не показывает memory overhead, а разница между guest memory usage и host memory так же часто достигает 10 раз.
Автор: Michigun
Дата сообщения: 10.04.2008 15:56

Цитата:
Объясните пожалуйста для чего нужна функция Convert to Template в VMware Virtual Center??

чтобы ВМ превратить в шаблон.
Предвещая следующий вопрос:
вот у тебя есть шаблон-эталон. Тебе же его скорее всего нужно будет время от времени менять? хотя бы патчи новые ставить? Вот ты его превращаешь в ВМ, изменяешь, и превращаешь обратно в шаблон.


Цитата:
У меня на всех серверах ESX 3.5, 3.5i разница между guest memory usage + overhead
и host memory всреднем 7-9 раз.

В какую сторону? Если guest memory usage больше, то есть вероятность что ты видишь работу page memory sharing.
Автор: Alexey777555
Дата сообщения: 10.04.2008 16:13

Цитата:
Цитата:У меня на всех серверах ESX 3.5, 3.5i разница между guest memory usage + overhead
и host memory всреднем 7-9 раз.

В какую сторону? Если guest memory usage больше, то есть вероятность что ты видишь работу page memory sharing.



Guest memory usage меньше.
Автор: rushell
Дата сообщения: 10.04.2008 16:38
rus-hell.do.am | IRC Russian Hell
Сайт Irc Russian Hell, irc, ирк, клиенты, скрипты, порно, Секс, scripts, порно, free, porno, серийники, софт, soft, варез, warez , bot, клиент, бот, ирка, трион, Trion, eggdrop, канал, mIRC, mirc, MIRC, IRC, мирка, мирк, download, закачка, скачать, архив, архивы, irc, IRC-технологии, SCRIPT, script, scripts, скрипты, mirc-скрипты, mirc-scripts, mirc-script, собрание, системы, порты, bugs, глюки, статья, статьи, статейки, стат, article, artikle, artik, artic, articl, arttikl, статью, статьям, x-chat, х-чат, команды ирк, #rus_hell, #rus-hell, Irc Russian Hell, Russian Hell, IRC Russian Hell, Irc технологии, Games, Игры, GTA 4, GTA IV, Fahrenheit, Heavy Rain, Quantic Dream, Порно фото, The origami killer, Heavy Rain:The origami killer, porno photo, xxx, Rockstar, Liberty City, X-Chat Colorizer, colorizer, xchat colorizer, спонсоры, Splinter Cell, Conviction, Ubisoft, Pandora Tomorrow, Double Agent, Music, Cinema, Screenshots, Splinter Cell:Conviction, Музыка, Кино, Communicate, Forum, Общение, Форум, Proxy List, Proxy, Socks 4, Socks 5, HTTPS proxy, прокси, сокс 5 прокси, сокс 4 прокси, рабочие прокси, баны, бан на IRC, #icq, photo, канал, photo #icq, free shells, information, IRC FAQ, How to, Why, Помощь IRC, KVIrc 3.4.0, KVIrc, IRC Client, Download, Free
Автор: Michigun
Дата сообщения: 11.04.2008 07:03

Цитата:
Guest memory usage меньше.

циферки можешь привести конкретные?
Автор: GTHack
Дата сообщения: 11.04.2008 07:10

Цитата:
Забей пока на то, что не видит при установке: скорее всего можно будет подпилить, и будет видеть при работе. Надо узнать как этот контроллер звали в девичестве (выбрать подходящий драйвер)

Последовательность такая: редактируешь соответствующий драйверу файлик, например /etc/vmware/pciid/megaraid_sas.xml : добавляешь туда раздел или просто правишь по живому pciid похожего контроллера

потом выполняешь
#esxcfg-pciid
#esxcfg-boot -p
#esxcfg-boot -b
#reboot

у меня таким образом заводятся два "невидимых" при установке контроллера: LSI 8300XLP (это как раз ZCR; работает с драйвером megaraid_sas) и SATA MegaRaid 8x (c драйвером megaraid2).


LevT как понять забей ?
я вообще то пытаюсь ESX на рэйд поставить а он не встает, не видит массив !
соотвественно файловой структуры нема !
как я чего куда залезу ? /etc/.... и пр.
Автор: LevT
Дата сообщения: 11.04.2008 07:41
GTHack
поставить на uncupported рэйд в один приесест я не знаю как. В два присеста знаю, что можно как-то (что-то типа dd) - но сам не пробовал и даже не интересовался.

Потому как сам ESX у меня стоит на отдельном диске на интеловском чипсетном сата - остальное пространство сата-диска используется под большой vmfs сторадж, склад всяких исо и бэкапов. А сторадж на рэйде переходящий: если нужно поменять хост-систему, это делается за полчаса "под ключ" с переносом всех настроек.

Народ навострился уже и с флешек ESX заводить: отмотай десяток-другой страниц назад..
Автор: Alexey777555
Дата сообщения: 11.04.2008 10:04
Michigun

Цитата:
циферки можешь привести конкретные?



ESX 3i

2 Xeon, 16 GB RAM
Несколько Оракловых ВМ. Каждой отдано по 2 GB.

ВМ1
overhead 105 мб
guest memory usage 20 мб
host memory 146 мб


ВМ2
overhead 115 мб
guest memory usage 286 мб
host memory 1.47 гб


ВМ3
overhead 115 мб
guest memory usage 307 мб
host memory 1.7 гб


ВМ4
overhead 116 мб
guest memory usage 204 мб
host memory 1.39 гб


ВМ5
overhead 106 мб
guest memory usage 245 мб
host memory 1.34 гб

...
...

ВМ 8


ESX 3.0.2

2 Xeon, 8 GB RAM
Несколько ВМ разного назначени.

ВМ1

guest memory usage 92 мб
host memory 860 мб


ВМ2
guest memory usage 296 мб
host memory 1.4 гб


ВМ3
guest memory usage 287 мб
host memory 1.3 гб


ВМ4
guest memory usage 222 мб
host memory 1.37 гб


Могу еще привести данные по ESX 3.5

Автор: vecialfor
Дата сообщения: 11.04.2008 10:09
Michigun


Цитата:
Предвещая следующий вопрос:
вот у тебя есть шаблон-эталон. Тебе же его скорее всего нужно будет время от времени менять? хотя бы патчи новые ставить? Вот ты его превращаешь в ВМ, изменяешь, и превращаешь обратно в шаблон.
-
А вот можно ли увеличить скорость развертывания VM из Template (я имею ввиду про функцию Deploy Virtual Machine from this Template) и от чего зависит эта скорость помимо объема самого образа виртуальной машины и параметров железа на котором производятся операции?
Автор: Michigun
Дата сообщения: 11.04.2008 11:50

Цитата:
А вот можно ли увеличить скорость развертывания VM из Template (я имею ввиду про функцию Deploy Virtual Machine from this Template) и от чего зависит эта скорость помимо объема самого образа виртуальной машины и параметров железа на котором производятся операции?

Поэкспериментируй с типом шаблона: Normal\Compact
Автор: LevT
Дата сообщения: 12.04.2008 08:59
Помогите понять, в чем дело. Задурил один из серверов. VIC к нему не коннектится, говорит, что нет ответа. Виртуалки внутри него работают, запустил щас бэкапы изнутри на всякий случай.

На экране консоли висят два красных ругательства
Цитата:

12:02:51:12.958 cpu0:1024)VMNIX <0>scsi: device set offline - command error recovery failed: host 2 channel 0 id 0 lun 0

12:02:51:13.509 cpu0:1024)VMNIX: <0>journal commit I/O error

гадая на кофейной гуще: вылетел диск из рейда? или что еще это может означать? Система стоит на чипсетном сата, виртуалки запущены на рейде.
Автор: LevT
Дата сообщения: 12.04.2008 16:32

рэйд цел, и системный диск после перезапуска сервера и автоматического чекдиска (или что там в никсах для ext3) тоже цел. Перезапускал ресетом, предварительно корректно остановив изнутри гостевые машины.

А ведь сервер писал на монитор консоли бесконечное "I/O error: dev08:02, sector 233323424" - и ни на что не реагировал... что бы и чем бы теперь почекать - на предмет хотя бы отсутствия битых секторов и т.п.?
Автор: pitblack
Дата сообщения: 12.04.2008 16:50
Вопрос -когда делаешь vmware ha , понятие хост -это esx сервер или отдельная vm? К стыду своему не вразумию, И можно применить ф-цию ha не ко всем виртуал машинкам на данном сервере esx. + последовательность -правильная ли. На каждом esx сервере
в файле hosts забиваем пары ip-имя для всех других esx (или vm????), проверяем пинги,
на vc делаем datacenter->cluster->добавляем esx -ы (как -отдельно добавить только одну vm?-возможно ли это).На этой стадии один сервер esx добавился, на втором ошибка ha агента. Ткните в доки по ha

Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110

Предыдущая тема: IMS REAL/32 v7.8x ... 7.94 (Buy?)


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.