Ru-Board.club
← Вернуться в раздел «Другие ОС»

» VMware ESX Server и VMware Infrastructure

Автор: Jaba_B_Ta3e
Дата сообщения: 30.10.2008 15:31
Есть машина с двумя Xeon`ами 3.4GHz (никак не пойму - HT они или DualCore, серверу почти четыре года). На этом железе на baremetal в Win2003 крутятся два разных сервиса - MSSQL и некий application server.

Хочу поставить новую машину на Quad-Core Xeon E5420, на ней сделать две виртуалки и разнести сервисы по ним. Лично я думаю, что надо делать однопроцессорные виртуалки. Но в таком случае возникает резонный вопрос - хватит ли производительности одного ядра E5420 на обслуживание MSSQL`я и другого ядра на этот сервер приложений?

Сейчас в device manager`е и task manager`е видно 4 процессора, средняя загрузка в течении рабочего дня - не более 30-40%.

Подскажите пожалуйста, надо ли использовать vSMP в таком случае?

добавка - или лучше виртуализировать это всё на старом железе, Xeon 3.4 GHz?
Автор: brassnet
Дата сообщения: 30.10.2008 15:31
Michigun
Это у тебя гонево, еще и к тому-же проблемы с чтением и пониманием прочитанного!

"32-разрядная версия Enterprise Edition и 64-разрядная версия Standard Edition поддерживают до 32 ГБ оперативной памяти."
К тому-же имею два работающих ENT с 16 гигами на борту прелестно работающими и видящими все 16 гиг, и никаких там извратов в виде /PAE и т.д. нет.
Автор: Jaba_B_Ta3e
Дата сообщения: 30.10.2008 15:40
Добавлено:
Судя по таблице на Intel.com - существующий процессор либо DualCore X5272, либо ещё из старых, 90nm. Пока не определился.

UPD: Определился. Да, это старый проц с 1мб L2 и HT
Автор: topnadodm
Дата сообщения: 30.10.2008 15:43
У меня стоит лицензонная Windows Server 2003 Enterprise Edition. Диски тоже куплены у Microsoft. Более того, рядом стоит сервер с 8 Гб оперативной памяти на нем система с этого же диска, но поставлена без виртуализации, сразу на железо. Видит все 8 Гб и проблем с памятью вообще не бывало.

Склоняюсь, что надо копаться где-то в настройках VMware ESX Server, но пока не могу найти где.

Добавлено:
Посмотрел на сайте VMware, в описании написано о поддержке HP DL365 для VMware Server 3.5, требует Update 1, но я устанавливал сразу VMware Server 3.5 Update 2 Build 110268.

Может есть смысл разделить сетевые карты, чтобы одна была задействована в сети 192.168.255.*, а вторая 192.168.114.*
Обмен в подсети 192.168.114.* идет как раз между серверами 1С и MS SQL, причем этот канал в десять раз загружен сильнее, чем канал от сервера 1С к пользователям, база довольно объемная.
И, соответственно, когда отпадает на сервере адаптер с адресом 192.168.255.* пользователи не видят 1С, если отпадает адаптер 192.168.114.*, то сервер 1С не видит сервера MS SQL.
Опять же спрошу, как это сделать быстро и безболезненно? Просто отключение сервера даже на 10 минут приносит мне очень много головной боли от начальства.
Автор: Michigun
Дата сообщения: 30.10.2008 16:30

Цитата:
насколько я понимаю - это гонево.
По ссылке для Ent указанно частичная поддержка максимума памяти в 32ГБ.
Это означает, что 32битная версия НЕ поддерживает столько, но есть 64битная, которая поддерживает.

действительно, был неправ. сорри.
надо же как я заблуждался %)
Автор: LevT
Дата сообщения: 30.10.2008 22:23
Если кому интересно - я завёл ESX на ASUS P5Q (P45 чипсет; ICH10R); сходу разогнал 4-ядерник C2Q 9400 2.66 -> 3.6ггц (до 450 по шине) . Это навскидку, специально разгоном не занимался. Сетевуха вставная, чипсетное сата.

Мать стоит 3.5 тыр. Думаю теперь рискнуть и взять 16гектар памяти (в конторах с манибэком такую не продают...)

При этом на аналогичной плате P5Q WS не заводится вообще никак: валится в PSOD. То ли из-за неотключаемого PCI-X моста от NEС, то ли по подобной какой-то причине: хрен поймёшь.
Автор: Kammerer2006
Дата сообщения: 30.10.2008 22:27
Всем привет !

Поставил сервер, вроде все хорошо.

НО.

Скопировал виртуальный диск(ghost.vmdk) , который делал на Workstation, на сервер, через WinSCP. Хотел его подсунуть виртуальной машине на сервере - и не могу, файл при выборе не виден. Что такое ??
Автор: LevT
Дата сообщения: 30.10.2008 22:28
Kammerer2006
используй Converter или консольную команду vmkfstools
Автор: Kammerer2006
Дата сообщения: 30.10.2008 22:47
LevT

О, спасибо. А я думал что Converter только для конвертирования рабочих систем.
Я поставил, а потом прочитал что datastorage можно отформатировать с другим размером кластера. Насколько скорости прибавится ? У меня будут одни девелоперы и тесты, никаких боевых систем.
Автор: LevT
Дата сообщения: 30.10.2008 23:03
zadolbali
[root@ilik root]# vmkfstools -r "/vmfs/devices/disks/vmhba32:0:0" "/vmfs/volumes/ilik:80/Win2003-64/rawdevice120.vmdk"
Failed to create virtual disk: The specified device is not a valid physical disk device (20).
[root@ilik root]# vmkfstools -r "/vmfs/devices/disks/vmhba32:0:0:0" "/vmfs/volumes/ilik:80/Win2003-64/rawdevice120.vmdk"
[root@ilik root]#

Добавлено:
Kammerer2006
не знаю, я не сравнивал. Сам из принципа везде сразу делаю максимальный кластер - но если сторадж уже захламлен, то понятно, ломает...

Автор: Michigun
Дата сообщения: 30.10.2008 23:52
Изменение размер кластера для VMFS имеет смысл только относительно максимального размера файла на ней.
С размером кластера по умолчанию файл может достигать размера в 256 гигабайт.
С максимальным размером кластера - 2 террабайт.

с т.зрения производительности данных тестов мне не попадалось, но если разница и есть - она вряд ли принципиальна.

Рекомендуется использовать минимально устраивающий размер кластера.
Автор: Kammerer2006
Дата сообщения: 30.10.2008 23:53
Michigun

А, ну тогда все ок, оставляю как есть.

Добавлено:
В какой-то из веток про ESX кто-то запостил про MC под ESX и инструкцию по сборке. Никак не могу найти, ткни носом плз.
Автор: zadolbali
Дата сообщения: 31.10.2008 00:30
LevT


Код: vmkfstools -r "/vmfs/devices/disks/vmhba32:0:0:0" "/vmfs/volumes/ilik:80/Win2003-64/rawdevice120.vmdk"
Автор: Kammerer2006
Дата сообщения: 31.10.2008 01:54
LevT

Попробовал vmkfstools. Не получилось:

vmkfstools -i ukm-sgho01.vmdk ukm-sgho02.vmdk
Destination disk format: VMFS thick
Source disk type must be scsi. 'ukm-sgho01.vmdk' is an ide disk
Автор: LevT
Дата сообщения: 31.10.2008 04:33
zadolbali
не знаю, в чём. У меня победилось вот так. ilik:80 - это метка стораджа.

All
Организовал и окончательно отладил двойную загрузку. Два сата диска: на одном ESX, на другом винда. Любая из систем может быть хостом, другая гостём первой.

Еще бы триггеры-скипты придумать - чтобы не лазить в биос выбирать загрузочное устройство...
Подскажите, как в винде инициировать после рестарта однократный запуск ESX с другого диска? Ну или как сразу решить задачку комплексно?


Kammerer2006
ну значит конвертером. Там есть волшебное слово Reconfigure, давеча за полминуты исправил винду на RDM - не было дров lsi scsi, не стартовала под ESX.
А до того битый час вытягивал ее по сети в воркстанцию.
Автор: faust72rus
Дата сообщения: 31.10.2008 08:05
topnadodm
Может проблема в аппаратной виртуализации? Поддержка включена в биосе? (вкладка Processor setting - VT setting)
Автор: LevT
Дата сообщения: 31.10.2008 11:56
Ищу хоть какие-то доки и-или hавту об esxcfg-boot, размером больше двух абзацев.

Пока нарыл единственное, в pdf с сайта Promise (как ставить сторонние дрова!):

VMware ESX Server 3.0.2, 3.5.0
New OS Installation
1. Download the VMware driver ISO image from the Promise Support Website.
2. Burn the VMware driver ISO image to a CD.
3. Place the driver CD in the CD-ROM drive.
4. Reboot the computer.
5. When prompted for an upgrade or installation method, press Enter for
graphical mode.
6. Specify your language.
7. Select a keyboard type.
8. If your Driver CD successfully loaded, you will be prompted to insert the ESX
Server CD and restart.
9. Continue with the ESX Server installation.

Existing System

1. Download the VMware driver ISO image from the Promise Support Website.

2. Burn the VMware driver ISO image to a CD.

3. Log into the system as the Superuser.

4. Insert the driver CD into the CD-ROM.
If CD does not mount automatically, type the following comand and press
Enter:
mount /mnt/cdrom

5. Type the following command and press Enter to install the driver RPM:
rpm -ivh /mnt/cdrom/VMupdates/RPMS/VMware-esx-
drivers-scsi-stex-<driver version>-i386.rpm
If the installation fails due to conflicts, try installing with the --force option.

6. Type the followig commands and press Enter to update the boot file and
regenerate GRUB:
esxcfg-boot -rg
esxcfg-boot -b

If the ESX Server did not install on the SuperTrak EX controller, copy stex.o
From /usr/lib/vmware/vmkmod/
To /lib/modules/2.4.xxxxx/kernel/drivers/scsi/

7. Reboot ESX Server.
Автор: oaf56
Дата сообщения: 31.10.2008 18:55
пытаюсь ставить WMWare ESXi3.5 Для обучения и тестов. Прочитал много документации и посмотрел инет.
Выяснилась проблема. Не находятся сетевые карты :
- внешние сетевые карточки PCI D-LINK DGE 528T/530T/550T
- встроеные PCI-X 2 MARVELL 88E8056(2х2=4 порта)
А сетевыев строеные INTEL 82563EB(2 порта) определяется как одна карта.

Сетевых ИНТЕЛ ПРО 100 есть только одна. Денег нет.
Возможно их как то использовать на хостах. Подскажите как заменить драйверы и делал ли кто ? Будку благодарен за любые ссылки и информацию.
Автор: Apokrif
Дата сообщения: 31.10.2008 19:56
LevT
http://b2v.eu/b2vguide2vmware3.htm
Автор: LevT
Дата сообщения: 31.10.2008 20:26

Цитата:
Не находятся сетевые карты :
- внешние сетевые карточки PCI D-LINK DGE 528T/530T/550T
- встроеные PCI-X 2 MARVELL 88E8056(2х2=4 порта)

и не найдутся. Забей, раз и навсегда.



Цитата:
А сетевыев строеные INTEL 82563EB(2 порта) определяется как одна карта.

может быть, особенность embedded версии? мне кажется, что в "большом" ESX должно определиться две. Откуда ты вообще узнал, сколько там определяется карт - из VI клиента, или как?

фишка в том, что ESX(i) с успехом может обойтись одной сетевухой. Когда тебе захочется вторую сетевуху - вместо нее надо будет сконфигурить транк на свитче (если свитч управляемый). Если свитч неуправляемый - то тоже решаемо: на винде, которая туда втыкается, должны стоять транковые дрова (например Intel ProSet). То же самое, если винда соединена с ESX напрямую.


Добавлено:
Apokrif
спасибо, видел. Хотелось бы почитать об интересующих меня опциях esxcfg-boot -p и -b (которые я и до сего времени с успехом использовал вслепую). Молчанием там обойдён esxcfg-pciid...

А также меня интересует все что связано с файлами simple.map и pci.ids которые в ESX присутствуют так же, как и в ESXi. Кажется, для ICH10R мне понадобилось что-то вручную допилить и в них (опыт на будущей неделе повторю).


Добавлено:

Ещё вопросы: как или чем

1) заменять из-под винды файлики на флешке с ESXi? (Девайс манагер ругается на кривые партиции; неясен также более-менее стандартный способ потом отформатировать её на полную ёмкость).

В приниципе я уже сейчас понимаю, как это сделать из-под линукса или сервисной консоли, но хочется продлить немного виндовз-вея.

2) самостоятельно править файл oem.tgz?

а также - ПОЧЕМУ? Кто бы где-нибудь объяснил, чтО во всей это алхимии c pci id-ами является исходниками, что конкретно делают тулзы и почему в результате в ESX по нескольку файлов pci.id и simple.map в разных местах...



Добавлено:

И еще: кто-нибудь пробовал ставить ESX/ESXi на флешку из-под вмваре воркстанции - подключив её к гостю как жесткий диск?


Добавлено:

Насчет последнего вопроса: 4Gb USB в качестве сырого диска автоматом подключается к вмваре воркстанции вот так:

# Disk DescriptorFile
version=1
encoding="windows-1251"
CIDж8eef7f
parentCIDяffffff
createType="fullDevice"

# Extent description
RW 7856128 FLAT "\\.\PhysicalDrive4" 0

# The Disk Data Base
#DDB

ddb.virtualHWVersion = "7"
ddb.uuid = "60 00 C2 9c 47 74 ee 38-f7 51 22 7a cc 9e 37 b8"
ddb.geometry.cylinders = "489"
ddb.geometry.heads = "255"
ddb.geometry.sectors = "63"
ddb.geometry.biosCylinders = "489"
ddb.geometry.biosHeads = "255"
ddb.geometry.biosSectors = "63"
ddb.adapterType = "lsilogic"


кто бы помог пересчитать геометрию в ide? Хочу попробовать.
Пример вот тут: http://communities.vmware.com/thread/50677
Автор: faust72rus
Дата сообщения: 01.11.2008 07:26
Народ повторяю вопрос (тот ответ что мне дали не подходит, он не полный)
Как через RCLI погасить хост машину под ESXi 3.5
или опишите переменные для запуска hoststop.pl (пока непонятно что за target_host)
???

Добавлено:
Кароче замучился и искать простые пути потому пишу чтото типа
Инструкция "Как подключить бесперебойник к ESXi 3.5 по USB\COM"
К сожалению не имея под рукой конвертера среды (COM->Ehternet) приходиться использовать левый компьютер который и будет контролировать состояние батареи (в моём случае это APC UPS SUA 1500 RMi2U - 1,5к Ватт 4 - резьёма, USB, COM) на него ставиться стандартное ПО умеющее запускать доп программу после разряда батареи, так мы и выключим сервер.
Создать эту программу можно в виде cmd но я решил сделать exe'шник и скачал Autoit версии 3.5
В редакторе кода пишем:

Run("c:\vmware\Shutdown.bat")
Sleep ( 200000 );
Run("c:\vmware\poweroff.bat")
Sleep ( 30000 );
Run("C:\vmware>plink.exe -v -ssh -2 10.10.1.100 -l root -pw Pa$$w0rd -m poweroff.txt")


Файл Shutdown.bat служит для мягкого гашения виртуальных машин при помощи Vmware tools и может содержать например дополнительные команды shutdown, net send и прочие.
У меня он выглядит так:

C:\Program Files\VMware\VMware VI Remote CLI\Perl\bin>perl.exe "C:\Program Files\VMware\VMware VI Remote CLI\Perl\apps\vm\vmcontrol.pl" --username root --password Pa$$ --operation shutdown --pool Windows --url https://10.10.1.100:443/sdk/webService

Хочу заметить что для удобства я организовал ВСЕ Вирты в Пул под именем Windows в файле vmcontrol.pl в конце есть иные варианты выключения
Далее Даём тайаут на 200 секунд для раздумья ос
После запускаем аналогичный скрипт но с командой
--operation poweroff
для того что бы погасить задержавшиеся оси и не повредить datastore

На последок гасим сам сервер давая ему команду отбой
Для активации SSH (гуглил приличное время):

Цитата:
# В локальной консоли ESXi нажмите ALT-F1.
# Напечатайте unsupported. Текста видно не будет - это не баг, это фича
вы войдете в режим Tech Support Mode и появится запрос пароля. Введите пароль пользователя root.
# Откройте файл inetd.conf командой vi /etc/inetd.conf
# Найдите строчку, начинающуся с #ssh и удалите символ #.
# Нажмите ESC и напечатайте :wq, чтобы сохранить изменения и выйти обратно в консоль.
# Перезапустите management services командой /sbin/services.sh restart.
# Теперь можно коннектиться через Putty.

вот так вот, кто может оптимизировать буду рад... )
Автор: LevT
Дата сообщения: 01.11.2008 09:47
Обясните тупому насчет вышеупомянутой геометрии (которую воркстанция прочла с флешки и транслировала в scsi):
7856128 = 64 sectors * 256 heads * 479.5 чего? Почему в vmdk значится 489 цилиндров?

Создаём новый 4Gb scsi:
8388608 = 64 sectors * 256 heads * 512 чего? Почему в vmdk значится 522 цилиндров?

Непонятно, не складывается уравнение...
Автор: Oleg_Kurilin
Дата сообщения: 01.11.2008 11:06
faust72rus
Вот и сам поимел возможность разобраться что там нужно, нужен был ещё один параметр --target_host, это хост, кого гасить (в нашем случае он сам, что в --server), и перед shutdown надо сделать enter_maintenance
У меня загасился!
Автор: faust72rus
Дата сообщения: 01.11.2008 13:25
у меня просто сервер не в enter_maintenance режиме потому и не канало, а --target_host = --server я пробовал поставить...
Автор: sergi88
Дата сообщения: 01.11.2008 15:13
ПОМОГИТЕ КТО В КУРСЕ.

Есть 2 ESXa. Решил замутить СХД на Open-E. Использую бесплатную ESXi версию. Из возможных стандартов выбрал iSCSI как наиболее подходящее соотношение цена\качество.
Сейчас на одном ESXе крутиться 10 машин: ISA, файловый сервер, DC... Соответвенно хочу их виртуальные диски перенести на этот СХД. И в случае падения одного поднять их на другом в ручном режиме.
Работать естественно все это будет через сеть. Для этого дополнительно в СХД хочу поставить две двух портовые сетевые гигабитные карты и напрямую соединить их с серверами через транк. Два линка к одному серверу, два к другому.
Вопрос:
1. Хватит ли мне этой скорости?
2. Карты какого производителя лучше выбрать?
3. Есть ли смысл поставить не двух а четырёх портовые карты?
4. Или не связываться с iSCSI а купить самые дешёвые Контроллеры Fibre Channel типа QLA2460-CK?
5. Что я делаю не так?


Автор: oaf56
Дата сообщения: 02.11.2008 13:53
LevT. спасибо за участие.

Цитата:
Цитата:Не находятся сетевые карты :
- внешние сетевые карточки PCI D-LINK DGE 528T/530T/550T
- встроеные PCI-X 2 MARVELL 88E8056(2х2=4 порта)

и не найдутся. Забей, раз и навсегда.
Не могу. Пояснения См. ниже.
Почему? На офф. сайтах Для Д-ЛИНКа и МАРВЕЛа(2008 года) Нашел драйвера под люникс. Не бинарные - С исходными текстамми. Их подключть никак не можно? VM Ware Сильно поменяла драйвера или добавила что-то а них существеное(свое для виртуализации)?

Цитата:
Цитата:А сетевыев строеные INTEL 82563EB(2 порта) определяется как одна карта.

может быть, особенность embedded версии? мне кажется, что в "большом" ESX должно определиться две. Откуда ты вообще узнал, сколько там определяется карт - из VI клиента, или как?

фишка в том, что ESX(i) с успехом может обойтись одной сетевухой. Когда тебе захочется вторую сетевуху - вместо нее надо будет сконфигурить транк на свитче (если свитч управляемый). Если свитч неуправляемый - то тоже решаемо: на винде, которая туда втыкается, должны стоять транковые дрова (например Intel ProSet). То же самое, если винда соединена с ESX напрямую.

1. Спасибо, будку это иметь в виду на будующее.
2. Карты определись как 2 штуки просто я не полез в консоль конфигурции на хосте. . Опаздывал. А тут посмотрел: одна активна, а вторая есть, но не выбрана(отмечена).

Добавлено:
Поможите кто такое проходил....

Из - за национальных особеностей - отсутствия денег хочу на сервере послабее(МАТЬ asus P5BV-C/4L) поднять ПО обеспечения ифраструктуры шлюза. Т.е. поднять сначала VM Ware ESXi, а в нем в виде отдельных VM поднять:
1.1. Шлюз(фаервол+машрутизатор)
1.2 Почта,
1.3 FTP
1.4 Сайт+HelpDesk(в планах).

Диск подключаю как SATA к встроеному LSI контролеру, Он Определяется SCSI. Хранище доступно.
А вот встроеные сетевые MARVELL и имеющиеся D-LINK не определяются никак. И это мне плохо.

Решение Сегментации по отдельным VM конечно не рациональное, но единствено возможное для обеспечения большей доступности других сервисов на время поломки_и_ремонта, обновления ПО. Так как в никсах я еще почти полный 0. Возможно ли такое решение и будет ли оно приемлемо с точки зрения безопасности? Устоит ли хостовая VM Ware ESXi? Ведь если ее вскроют то - мало не покажется...
Инфой по этому ? не поделитесь?

В качестве виртуализируемых ОС(для шлюза) выбрал по бедности бесплатную FreeBSD. с составом ПО ПОКА определяюсь.
БОльшая проблема для меня при таком решении отсутствие нужного колва карт.(Имеющиеся не определяются) Ведь один интерфейс должен смотреть в Инет+ДМЗ, а другой в мою сеть. Может виртуализировать не на ESXi., а на FreeBSD типа на ХЕНе?
Автор: Kammerer2006
Дата сообщения: 02.11.2008 16:11
LevT

Да, конвертером.
Но опять же. Конвертер легко сконвертил саму виртуалку и перекинул ее в ESX, а вот отдельный диск vmdk просто не увидел. Я так понял что ему нужен был еще файл описания, но его у меня нет. Упс.

Добавлено:
А кто использовал Ghost ?

Есть некая проблема.
Создал виртуалку под Windows 2003 Server Standatr x64, сетевуха получилась E1000. В качестве CD указал ISO бутового сидюка, с которого грузится Ghost(все в DOS).
И получается какая-то фигня - диск бутится, драйвер E1000 скачанный с сайта Intel цепляется, а DHCP не цепляется хоть тресни. Выставил принудительно IP - все равно. Причем в другой виртуалке где Server x32 и сеть AMD все ОК.
ESX смотрит в циску, думал там что, но другая виртуалка все видит. Значит проблема именно в E1000 ? Может есть какие родные дрова под DOS от VMWare ?

Куда копать уже не знаю.

Причем везде написано что мол типа сеть от AMD уже не канает и специально поставили E1000 тк это самый рулез.
Автор: Oleg_Kurilin
Дата сообщения: 02.11.2008 16:43
Kammerer2006
Попробуй WinPE 2.0 (от Vista/Server 2008), ну и Ghost32. В такой конфигурации точно должно работать.
Автор: LevT
Дата сообщения: 02.11.2008 17:55

Цитата:
VM Ware Сильно поменяла драйвера или добавила что-то а них существеное(свое для виртуализации)?


там в натуре другое ядро: проприетарное, а не люникс
Автор: Apokrif
Дата сообщения: 03.11.2008 04:52
LevT

Цитата:
Обясните тупому насчет вышеупомянутой геометрии (которую воркстанция прочла с флешки и транслировала в scsi):
7856128 = 64 sectors * 256 heads * 479.5 чего? Почему в vmdk значится 489 цилиндров?

Создаём новый 4Gb scsi:
8388608 = 64 sectors * 256 heads * 512 чего? Почему в vmdk значится 522 цилиндров?

Непонятно, не складывается уравнение...

Это из серии как производители считают емкость
1 килобайт = 1000 байтов
1 мегабайт = 1000 килобайтов
и т.д.
Экономят короче

Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110

Предыдущая тема: IMS REAL/32 v7.8x ... 7.94 (Buy?)


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.