Ru-Board.club
← Вернуться в раздел «Другие ОС»

» VMware ESX Server и VMware Infrastructure

Автор: LevT
Дата сообщения: 27.11.2008 20:16
Полдня потерял сегодня из-за скверного бага:

Ярлык VIC давно изменен на "C:\Program Files (x86)\VMware\Infrastructure\Virtual Infrastructure Client\Launcher\VpxClient.exe" -passthroughAuth -s myvcenter.mydomain", контроллер домена и виртуалцентер сегодня недоступны.

Обрываю автоподключение и пытаюсь приконнектиться к свежеустановленному хосту напрямую, от имени рута. Отказывается с невнятной ошибкой! К вечеру догадался запустить vpxClient напрямую из програм файлз, полёт нормальный.
Автор: vecialfor
Дата сообщения: 28.11.2008 10:38
Michigun
Добрый день, прочитал на вашем блоге про решение о виртуализации под Linux - Kodiak. Зашел на сайт и хотел скачать бета версию, но был дан ответ, что так просто ее загрузить нельзя, и нужно приглашение на закачку. Не подскажите как и где ее получить или есть возможность где то скачать? Премного благодарен
Автор: Michigun
Дата сообщения: 28.11.2008 11:58
у меня нет приглашений.
где взять не знаю.


Добавлено:
но это не решение виртуализации, это клиент для управления ESX.
Автор: brahmanda
Дата сообщения: 28.11.2008 12:40
Проблема:
ESX 3.5 установлен на IDE интерфейсе
На сервере стоит SATA контроллер FastTrack S150 TX4 + 4 HDD объеденены в Mirror Stripe
По идеи ESX должен видеть единый массив Mirror Stripe, а он видит каждый диск отдельно:

[root@SRV-ESX-A03 /]# dmesg | grep scsi
kmod: failed to exec /sbin/modprobe -s -k scsi_hostadapter, errno = 2
kmod: failed to exec /sbin/modprobe -s -k scsi_hostadapter, errno = 2
scsi0 : vsd
scsi1 : sata_promise
scsi2 : sata_promise
scsi3 : sata_promise
scsi4 : sata_promise
VMWARE: Unique Device attached as scsi disk sda at scsi1, channel 0, id 0, lun 0
Attached scsi disk sda at scsi1, channel 0, id 0, lun 0
VMWARE: Unique Device attached as scsi disk sdb at scsi2, channel 0, id 0, lun 0
Attached scsi disk sdb at scsi2, channel 0, id 0, lun 0
VMWARE: Unique Device attached as scsi disk sdc at scsi3, channel 0, id 0, lun 0
Attached scsi disk sdc at scsi3, channel 0, id 0, lun 0
VMWARE: Unique Device attached as scsi disk sdd at scsi4, channel 0, id 0, lun 0
Attached scsi disk sdd at scsi4, channel 0, id 0, lun 0
scsi_register_dev_mod starting finish
scsi_register_dev_mod done with finish

Помогите советом, почему ESX не видит единый массив ? Трахаемся уже несколько дней, куда копать непонятно...
Автор: vecialfor
Дата сообщения: 28.11.2008 13:28
Michigun
А можно ли как то ознакомится с этим софтом? Я так понимаю через него же можно работать с виртуальными машинами??
Автор: brassnet
Дата сообщения: 28.11.2008 13:36
brahmanda
А уверен, что у тебя действительно один массив, как его винда видит, или линух другой?
Автор: brahmanda
Дата сообщения: 28.11.2008 13:56
brassnet
Винда видит как один массив.
Я тут нашел ссылочку одну, http://faq.altlinux.ru/index.php?action=listq&nf=1&qid=401,
Вот кусочек:
- В свежих ядрах 2.4.x (начиная с 2.4.27) и 2.6.x есть модуль sata_sx4,
который в принципе поддерживает Promise SX4. Но только в принципе -
отдельные диски видны, но возможности RAID недоступны.

Так что плакал мой рэйд =(
Автор: Michigun
Дата сообщения: 28.11.2008 15:21

Цитата:
А можно ли как то ознакомится с этим софтом? Я так понимаю через него же можно работать с виртуальными машинами??

я не в курсе - я просто углядел новость и написал на эту тему.
У меня самого этой софтины нет.
Автор: trepov
Дата сообщения: 28.11.2008 16:54
arq
Попрбуйте отключить на Xyratex Writeback cache
http://communities.vmware.com/thread/162161
All work well if turn off "Writeback cache" option on our FC Xyratex .
Автор: Jaba_B_Ta3e
Дата сообщения: 28.11.2008 23:34
brahmanda
FastTrack S150 это же fakeraid, не?
Автор: xmlparser
Дата сообщения: 29.11.2008 02:44
А кто нить поднимал ESX 3.5 на IBM HS20, модификации 8843? Не могу никак побороть. При загрузке с диска просто висит чёрное окно и всё.
Автор: vecialfor
Дата сообщения: 29.11.2008 14:18
Michigun

Цитата:
я не в курсе - я просто углядел новость и написал на эту тему.
У меня самого этой софтины нет.
- спасибо большое за ответ будем искать.
Автор: arq
Дата сообщения: 01.12.2008 16:32
Народ, не вкурсе можно ли из под vmware мониторить состояние raid (контроллер adaptec, локальные диски в зеркале) ? Поставиться ли ПО мониторинга преднозначенное для Linux (2.4, 2.6 kernels) на ESX ?
Автор: Michigun
Дата сообщения: 01.12.2008 19:22

Цитата:
арод, не вкурсе можно ли из под vmware мониторить состояние raid (контроллер adaptec, локальные диски в зеркале) ? Поставиться ли ПО мониторинга преднозначенное для Linux (2.4, 2.6 kernels) на ESX ?

Вендоры типа DELL\FSC\IBM\HP предлагают софт мониторинга под ESX.
Автор: Jaba_B_Ta3e
Дата сообщения: 02.12.2008 07:27
arq
Michigun

VIMA так никто и не попробовал штоле? Я не могу - у меня развёрнутого ESX`а пока нет.
Автор: oaf56
Дата сообщения: 02.12.2008 17:04
Просьба не ругать. Совсем запутался в трех соснах...
1. Какую сетевую карту порекомендуете для хоста ESXi3.5. Желательно надежную, дешевую и многопортовую.
2. В качестве альтернативы п.1( безденежье) - стоит поднимать VMWare Server 2.0 под Lunix? Производительное решение? Под FreeBSD 6-7 Кто запускал? Или какую ОС из бесплатных порекомендуете. Графическая оболочка нужна обязательно? Дистанционо управлять можно?
Автор: LevT
Дата сообщения: 02.12.2008 17:45
oaf56

Цитата:
1. Какую сетевую карту порекомендуете для хоста ESXi3.5. Желательно надежную, дешевую и многопортовую.


Интел. Лучше гигабит. На любой шине (разумеется PCIe перспективнее, а PCI-X на твоей матери может и не быть; 1000MT PCI стоит 600-700 руб.) Некоторые интеловские сетевухи, при том что работают с ESX, несколько кривоваты в другом отношении (отсутствуют 64-битные дрова под винду; думаю, перед покупкой следует всёж справиться с 64-битным HCL интела).

Многопортовость не обязательна, если юзать виланы. На другом конце транка может быть винда с дровами Intel ProSet (линукс, насколько мне известно, и вовсе встроенными средствами пилит транки), в середине - опционально - грошовый неуправляемый свич, в который могут быть воткнуты доп. хосты.


ALL

Проц Q9450, 16 гектар памяти Quimonda (4x4), мать фыгы P5E WS Pro (X38 чипсет: забавно смотрится эверест с "максимальным" для чипсета - 8G - и реально установленным объемами памяти). Стабильна на шине 450 без всяких дополнительных подпиливаний.

одна беда: не заводится на этой матери ESX (PSOD; есть причины подозревать, что из-за кривого ACPI). Метод лечения описан по ссылке линуксспецифичный, для закрытого ядра ESX не прокатит, я думаю (уверен).

Кто-то здесь умеет править RSDT в ami bios от ФЫГЫ?
Автор: Jaba_B_Ta3e
Дата сообщения: 02.12.2008 20:39
oaf56

Цитата:
2. В качестве альтернативы п.1( безденежье) - стоит поднимать VMWare Server 2.0 под Lunix? Производительное решение? Под FreeBSD 6-7 Кто запускал? Или какую ОС из бесплатных порекомендуете. Графическая оболочка нужна обязательно? Дистанционо управлять можно?


Использую, 4 хоста на Debian Etch-and-half, 10 гостей, все гости 32х-битные - железо без VT.
Довольно производительно, если читать соответствующие статьи по твикингу. Гибче в плане железа, а также софта для мониторинга этого железа, позволяет в отличии от ESX заводить одновременно несколько гостей на одном гиге оперативки (да, и такое у нас тоже есть).

Я считаю: если "денег нет ваще" - vmware server вполне неплох, особенно если имеется кучка относительно старого железа, на котором просто ESX не заведётся.

Про FreeBSD: не слежу постоянно за этой осью, там Java уже заводится без бубна? Если всё как в былые времена - можете огрести проблем с мониторингом адаптековских райдов. Ну и вообще-то решение не поддерживаемое.

Графическая оболочка не нужна совсем (при условии удалённого управления). server 1.0 для установки требовал графические библиотеки (но без самих иксов), в server 2.0 уже не нужны.

Дистанционно управлять НУЖНО! Причём тем же VI-клиентом, который для ESX`а. В дефолтной установке порт для соединения - 8333.
Автор: TitanMK
Дата сообщения: 03.12.2008 10:15
Ребят вопрос
Вот хочу внедрить виртуализацию на продуктах vmware, а именно VI.
Собираюсь взять сервачок для начала HP ML 370 G5 на 2-х Xeon E5440, 8 гигов оперативы, 5 SAS дисков. Для начала крутить на нем 4 виндовых сервера (AD, Exchange, MS SQL небольшие базы, Sharepoint и еще пару апликешенов) и пару линуксовых. Хватит мошности железа? Или оперативки по более брать? какие будут рекомендации?
Автор: LevT
Дата сообщения: 03.12.2008 11:58
TitanMK
нужда в оперативе лимитируется только твоим бюджетом. Втиснуть в 8 гектар можно многое, но если захочешь зарезервировать память за критическими виртуалками - скоро почувствуешь обломайс при попытке запустить какую-нибудь экспериментальную машинку.

Лично я уже перешёл на "десктопные" платы с 16 гектарами. 4 планки по 4Г = 13 тыр, + 4 тыр мать + 10 тыр проц (для дисковой годится проц и попроще). Ещё бы найти способ таких зверьков компактно паковать в "стойки"...
Автор: TitanMK
Дата сообщения: 03.12.2008 15:17
Ок, а тогда каким лучше гипервизором пользоватся esx или esxi???
и тот и тот мучал, все думаю о esx.
хотелось бы услышать мнения с обоснованиями, а не просто голословные.
Автор: PhoenixUA
Дата сообщения: 03.12.2008 15:56
LevT

Цитата:
Ещё бы найти способ таких зверьков компактно паковать в "стойки"

Не боишься, что у таких зверьков единственный блок питания, который может спокойно вылететь при компактной упаковке? И если там рабочие виртуалки, то мало не покажется...
Автор: LevT
Дата сообщения: 03.12.2008 16:10

Цитата:
хотелось бы услышать мнения с обоснованиями, а не просто голословные.


с точки зрения памяти, имхо, без разницы. Сервисная консоль жрёт по умолчанию четверть гига оперативы: мелочь это, с нынешними её объёмами.


PhoenixUA
можно организовать два датацентра, в соседних комнатах;) ну или в крыльях здания.

На самом деле я спрашиваю коллективный разум о компактной упаковке - и действительно интересуюсь всеми "за" и "против".
Автор: Serjevski
Дата сообщения: 03.12.2008 16:22
LevT

Цитата:
Ещё бы найти способ таких зверьков компактно паковать в "стойки"...

Упаковать то можно, надо поискать корпуса rackmount которые поддерживают FF ATX.
Такие в природе есть, вопрос в цене. можешь тут например поискать http://ipc2u.ru/catalog/H/description.html

TitanMK

Цитата:
Вот хочу внедрить виртуализацию на продуктах vmware, а именно VI.
Собираюсь взять сервачок для начала HP ML 370 G5 на 2-х Xeon E5440, 8 гигов оперативы, 5 SAS дисков.

Я бы брал больше памяти. Это самое узкое место у VI, на втором месте производительность дисковой подсистемы.

Автор: TitanMK
Дата сообщения: 03.12.2008 19:36
Serjevski

Цитата:
Я бы брал больше памяти. Это самое узкое место у VI, на втором месте производительность дисковой подсистемы.

Я вот тоже про это думал и читал... но думаю больше 8-10 Гигов оперативы для начала в бюджет не вложимся.... потом увеличу

LevT

Цитата:
На самом деле я спрашиваю коллективный разум о компактной упаковке - и действительно интересуюсь всеми "за" и "против".

ну можно корпуса подобрать ровненькие и компактные и друг на друга ставить и рядом))) но с обычными пк я думаю бред, особенно для критически важных серверов на предприятие .... я бы такое никогда не одобрил... хотя можеш извратится, и сам попробовать сделать корпуса и себе же их продовать)
Автор: LevT
Дата сообщения: 04.12.2008 11:44
TitanMK

Цитата:
но с обычными пк я думаю бред, особенно для критически важных серверов на предприятие ....


моя вышеописанная машинка за штукубаксов с легкостью понесёт все твои задачи (если юзеров десятки, а не сотни). Рядом можно поставить в кластер ещё одну, и ещё одну-две для дисковой.
А вот "укладываясь в бюджет" брендового сервера, ты очень лимитируешь себя любимого с чисто технической точки зрения. Хотя "жопу прикрываешь", да. И на опилки того бюджета можешь рассчитывать.

Каждому своё, смотря что кому важнее...
Автор: skbkmz
Дата сообщения: 04.12.2008 13:41
Реально ли локальный сторадж под vmfs экспортировать в сеть как iscsi target?
Автор: Jaba_B_Ta3e
Дата сообщения: 04.12.2008 15:31
Да, кстати.
Наверняка здесь есть ограниченные в бюджете люди, которые строят дисковые хранилища на основе linux`а и программного iscsi, а не покупают "железные" СХД ценником от 10 т.б.

Я для теста попробовал поднять iscsi-target на debian lenny - получилось. Но тонкой настройкой данного хранилища не занимался. Поделитесь опытом - что желательно крутить, куда и с какой силой?
Автор: sergi88
Дата сообщения: 04.12.2008 16:06
СХД и HA с минимальными вложениями (IMHO)

После долгих мучений по выбору железа, и необходимости уложится в заданную сумму, было куплено 4 сервера (пишу конфу, если кому интересно):
1 и 2 под ESXi (Xeon 5440x2, мать 6015W-UR, сетевая EXPI9404PT,) – 120 т. р. за штуку
В первоначальном варианте я хотел использовать хардовые карты iSCSI, но тогда узким горлышком для меня бы стал один единственные порт на этой карте, поэтому решили те деньги, которые бы ушли на эти карты вложить в процессорную мощь, увеличив ее с Xeon е5405 до е5440, и обеспечив тем самым возможность увеличить ширину канала за счёт 4-х портовой сетевой карты EXPI9404PT и IEEE 802.1ad
3 и 4 под СХД (Xeon 5405x2, сетевая PCIE1 1GB DUAL BLK5/EXPI9402PTBLK 86871 INTELx2, HDD sata2x16, Adaptec 5405, Open-E DSS) 170 т. р. за штуку
Выбор Open-E был сделан тоже не случайно. Да сейчас полно вариантов софтового iSCSI, но не у кого я не нашёл нормального реплицирования данных. Open-E не дешёвое решение (около 30 т. р. за штуку, но зато с их помощью можно построить полноценный кластер)
+Allied Telesis AT-8000GS/24-50 Layer 2 для сторадж-сети
Получилось что у ESX и у СХД по 6 сетевых портов
Решено было сделать:
ESX
1 под продакшн-сеть
2 под internrt-сеть
4 под сторадж-сеть
СХД
1 под продакшн-сеть
4 под сторадж-сеть
Сеть
продакшн-сеть 10.0.20
сторадж-сеть 192.168.0 (акцентирую внимаие на данном выборе, чтобы ESX не конектился к СХД через продакшн-сеть)

Из документации понял что Jumbo Frame ESXi не поддерживает, т. е. нужно мутить только с IEEE 802.1ad (агрегирование каналов), но как это сделать я так и не понял. Всё что касается сетевого оборудования, там просто, 4 порта нужно объединить вместе по IEEE 802.1ad, а где то же самое сделать в настройках ESX? Если возможно то объясните пожалуйста на пальцах
Заранее благодарю!
Автор: Jaba_B_Ta3e
Дата сообщения: 04.12.2008 16:11
sergi88

Цитата:
3 и 4 под СХД (Xeon 5405x2

а не докуя ли процессорной мощи под хранилище? я вообще думал что-нибудь никак не выше 3000й серии использовать.

Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110

Предыдущая тема: IMS REAL/32 v7.8x ... 7.94 (Buy?)


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.