Ru-Board.club
← Вернуться в раздел «Другие ОС»

» VMware ESX Server и VMware Infrastructure

Автор: Serjevski
Дата сообщения: 04.03.2009 10:19
Помогите пожалуйста заставить ESX 3.5 (не ESXi) увидеть диски на ICH8 (q963 chipset)
что нужно прописать в ahci.xml и в какой момент? Можно ли это сделать после установки esx? Сам esx 3.5 u3 прекрасно встает.

Ps. Поиском не нашел, простите...
Автор: pitblack
Дата сообщения: 04.03.2009 14:04
спасибо, буду все пробовать. Доку про mscs нашел, курю
Пока же делаю вот так
http://www.databasejournal.com/features/oracle/article.php/3690806/Oracle-RAC-How-shared-storage-works-on-VMware--Part-2.htm
Диск 118 Gb создается уже 1час прошло 60 %

по вашему совету не понятно одно. Вот есть виртуалка.
у нее есть уже один scsi контроллер-и там можно выбрать тип шаринга.
другой скази контроллер добавить из gui не выходит-нет в списке устройств которые можно добавить. Есть только лишь scsi-девайс, у которого в свойствах нет bus sharing

Добавлено:
извините, затупил-когда диск добавляешь, scsi контроллер появляется

Добавлено:
to Michigun
Вам вообще огромное спасибо-за ваши интернет-ресурсы. Ковыряешь esx-c vm4 и wiki -просто песня как все понятно становится, настраиваю sccm-опять Вы.
Спасибо Вам от всех кустарей самоучек Инета
Автор: Michigun
Дата сообщения: 04.03.2009 14:39
pitblack
спасибо.
Автор: pitblack
Дата сообщения: 04.03.2009 16:14
vmkfstools -c 10Gb -d eagerzeroedthick /vmfs/volumes/RACShare/asm01.vmdk
такой командой делал диск
так как обе ноды на одном сервере-тип шаринга ставил виртуал
scsi 1:0
Один узел нормально стартует, второй пишет
wmware esx не может открыть *.vmdk for clustering
Проверьте создан ли диск с thick option(а я блин с какой создавал?!)
reason:thin/TBZ disk cannot be opened in multiwriter mode/
Че делать ?
Автор: LevT
Дата сообщения: 04.03.2009 18:47

Цитата:

Помогите пожалуйста заставить ESX 3.5 (не ESXi) увидеть диски на ICH8 (q963 chipset)
что нужно прописать в ahci.xml и в какой момент? Можно ли это сделать после установки esx? Сам esx 3.5 u3 прекрасно встает.



После установки подпилить можно, тем более что напрямую на неизвестный дистрибутиву девайс сервер не встанет. Мне неизвестен способ модифицировать дистр (хотя он безусловно должен существовать)

Имхо палочкой-выручалочкой, позволяющей разделить проблемы, является вставная карточка sil, саташный системный диск и саташный дивидюк.
Сперва все втыкаем и ставим прямо на целевую мать, потом подпиливаем.

Другой вариант - перенести уже уставновленную на другой матери систему. В этом случае потом придётся править аплинки всвитчей.


Как? Надо посмотреть pciid девайса, допустим 8086:2922
подправить любую секцию или дописать аналогичную по шаблону в файл /etc/vmware/pciid/ahci.xml

затем выполнить тройственное заклинание esxcfg-pciid и т.д (см. пред. стр.)
Автор: Michigun
Дата сообщения: 05.03.2009 07:55

Цитата:
vmkfstools -c 10Gb -d eagerzeroedthick /vmfs/volumes/RACShare/asm01.vmdk
такой командой делал диск
так как обе ноды на одном сервере-тип шаринга ставил виртуал
scsi 1:0
Один узел нормально стартует, второй пишет
wmware esx не может открыть *.vmdk for clustering
Проверьте создан ли диск с thick option(а я блин с какой создавал?!)
reason:thin/TBZ disk cannot be opened in multiwriter mode/
Че делать ?

можно попробовать создать диск командой
vmkfstools -c 10Gb -d thick /vmfs/volumes/RACShare/asm01.vmdk

а на 22 странице гайда http://www.vmware.com/pdf/vi3_35/esx_3/vi3_35_25_u1_mscs.pdf
предлагают такую команду:
vmkfstools -c <size> -d eagerzeroedthick -a lsilogic
/vmfs/volumes/<mydir>/<myDisk>.vmdk
Автор: pitblack
Дата сообщения: 05.03.2009 08:56
Спасиб, сейчас попробую-результат отпишу
Автор: Serjevski
Дата сообщения: 05.03.2009 12:31
LevT

Цитата:
Как? Надо посмотреть pciid девайса, допустим 8086:2922
подправить любую секцию или дописать аналогичную по шаблону в файл /etc/vmware/pciid/ahci.xml

затем выполнить тройственное заклинание esxcfg-pciid и т.д (см. пред. стр.)


Я это сделал, ID девайса мне выдал Everest 8086:2820 и 8086:2825, вставил 2 секции, выполнил заклинание pciiid и esxcfg-boot -p и -b (двумя командами, одну за другой.)

После перезагрузки на "главном" экране ESX (там где он свой адрес кажет) красное сообщение Initialization for ahci failed with -19.
Ну и дисков он так и не видит.

Где я дурак?
Автор: pitblack
Дата сообщения: 05.03.2009 13:12
приношу всем извинения за мозгое...-все работает, чиста глюк esx.
На одной ноде слетала настройка СИСТЕМНОГО диска(не шаренного)-он расшаривался!
А я невнимательно читал сообщения об ошибке
Автор: LevT
Дата сообщения: 05.03.2009 17:33
Serjevski
а в биосе-то девайс в режиме AHCI? RAID или EIDE с этим драйвером не покатят.
(зато покатят c другим, с которым сторадж не создашь)


Добавлено:
ЗЫ. фишка в том, что pciid в разных режимах разные.
В зависимости от положения переключателя биоса получаются три разных устройства.
Автор: Serjevski
Дата сообщения: 05.03.2009 18:29
LevT
Ща пошарю в бивисе... блин это странный комп HP dc5700 бивис там... кастрированый мягкого говоря.... но я посмотрю, спасибки
Автор: maxhl
Дата сообщения: 05.03.2009 18:35
Мой вариант шатдауна ESX из винды (винда - DC тушится последней парашютом APC)

1. Ставим на винду PowerShell.
2. Ставим на винду VMWare VI Toolkit.
3. Создаем батник гденить в винде с содержимым : [more=shut_esx.bat]
C:\WINDOWS\system32\windowspowershell\v1.0\powershell.exe -psc "C:\Program Files\VMware\Infrastructure\VIToolkitForWindows\vim.psc1" -noe -c ". \"C:\Program Files\VMware\Infrastructure\VIToolkitForWindows\Scripts\shutdown_esx.ps1\""
[/more]
- Это стандартный линк на запуск VI Toolkit только с допиской своего скрипта
4. Рисуем сам [more=скрипт]
shutdown_esx.ps1 -->

[void][Reflection.Assembly]::LoadWithPartialName("VMware.Vim")

function Shutdown-VMHost{
param($MyHost)

$force = $true
$WaitSeconds = 240

$esx = Get-VMHost $MyHost | Get-View

# Shutdown guests
$vms = Get-VMHost $MyHost | Get-VM | Where-Object {$_.PowerState -eq "PoweredOn"}
foreach ($v in $vms) {Suspend-VMGuest $v.name -Confirm:$false}

# Wait
sleep $WaitSeconds

# Hard poweroff the remaining guests
Get-VMHost $MyHost | Get-VM | Where-Object {$_.PowerState -eq "PoweredOn"} | Stop-VM -Confirm:$false

# Shutdown
$taskMoRef = $esx.ShutdownHost_Task($force)
$task = Get-View $taskMoRef
while($task.info.state -eq "running" -or $task.info.state -eq "queued"){$task = Get-View $taskMoRef}
}

Connect-VIServer 192.168.0.*** -User shut_user -Password your_pwd
Get-VMHost | %{Shutdown-VMHost $_.Name}
exit
<--
[/more]
5. В парашюте необходимо настроить эмпирическим путем время ожидания выполнения скрипта. В данном случае, на выполнение скрипта выключения виртуалок отведено 240 сек. - в парашюте 300.
Автор: Serjevski
Дата сообщения: 05.03.2009 19:22
LevT
Пошарил... нет там таких настроек
Похоже придется вставлять контроллер.
Автор: LevT
Дата сообщения: 05.03.2009 23:34
Serjevski
ну значит извратный брендово-маркетологический комп тебе попался, с преднамеренно урезанным биосом. Любой интеловский южник технически способен работать в режиме ahci.

И ещё ведь небось не гонится? Ненавижу пидарасов! Единственное в чём от такого компа может быть прок - набортная сетевуха e1000 или tg3. Во всех остальных отношениях те же асусы строго предпочтительны.
Автор: evgenyponomarenko
Дата сообщения: 06.03.2009 03:58
Добрый день!
Есть вопрос. Бывает ли, что под ESX падает сетевая карта?
Конкретнее,
есть сервер с 2мя сетевыми карточками - ISA2006, одна карта смотрит в DMZ, вторая в Internal.
Через некоторое время (месяца 2-3), на одной из сетевых карт начинаются жуткие глюки - дропаются пакеты, время задержки 200-300 мс, в то время, как остальные виртуальные машины работают нормально. При этом на ISA валится ругань о конфликте ip-адреса.
После удаления сетевой карты и создания ее заново все работает. Потом история повторяется.
С чем может быть связано и есть ли где описание?
ИМХО, какой-то конфликт между удаленными NICами и существующими, т.к. удаленным тоже был назначен тот же адрес, но блин, физически ж ее там нет.

Заранее большое спасибо!
Автор: LevT
Дата сообщения: 06.03.2009 09:24
evgenyponomarenko
у меня был подобный глючок недавно. Стопроцентно не поручусь, что именно тот самый.
Воткнул в сеть комп с тем же адресом, который был на сервисной консоли. Пересоздавать пришлось не то vswif, не то целый vswitch

Сдаётся мне, что в Update3 внесли какую-то кривизну в esxcfg-vswitch (точнее в нижележащие системные вызовы).
Бум надеяться, что так же тихо вылечат в следующем апдейте.
Автор: sergavens
Дата сообщения: 10.03.2009 13:07
Загрузочный диск Акрониса у кого-нибудь получалось заставить работать под ESX 3.5 ?
Уже весь мозг сломал пытаясь перенести Netware5.1 с ESX2 на ESX3.
С виндовыми машинами никаких проблем - образа снимаются и копируются по сети из под включенной винды. Хочешь VM Converter, хошь Акронисом.
А вот как перенести не виндовую машину с Netware? Я пробовал грузиться и с BartPE и просто с диска Акрониса. Они не видят сетевые адаптеры ВмВари. Т.е., образ то Акронис создаст, а куда его записать, чтоб подцепить на соседней ESX3.5 ?
Автор: anr69
Дата сообщения: 10.03.2009 16:05
sergavens

Цитата:
Загрузочный диск Акрониса у кого-нибудь получалось заставить работать под ESX 3.5 ?
Уже весь мозг сломал пытаясь перенести Netware5.1 с ESX2 на ESX3.
С виндовыми машинами никаких проблем - образа снимаются и копируются по сети из под включенной винды. Хочешь VM Converter, хошь Акронисом.
А вот как перенести не виндовую машину с Netware? Я пробовал грузиться и с BartPE и просто с диска Акрониса. Они не видят сетевые адаптеры ВмВари. Т.е., образ то Акронис создаст, а куда его записать, чтоб подцепить на соседней ESX3.5 ?

Так поэтому и попреходили на ESX шобы не пользовать акрониксы а просто списывать сами машину куда надо. и запускать хошь с новым ID(клон) хошь со старым
А списываем просто по SSH вон FASTFTP быстро с этим справляется.
Автор: sergavens
Дата сообщения: 10.03.2009 18:16
Дык разные ж форматы вирт.машин у ESX 2.5 и ESX 3.5
Простым копированием не получается переносить между ними.
Я пробовал создать в 3.5 новую виртуалку и подсунуть ей диски с версии 2.5, но оно не грузилось.
Поэтому и спрашиваю совета, мож кому-то удалось перевести виртуалку с 2.5 на 3.5
Топик прочитал уже 55 страниц, и судя по всему люди в 2003ем году только баловались с сабжем, в продакшене почти не было ничего.
Автор: str1k3r
Дата сообщения: 10.03.2009 20:00
sergavens
VMWare Converter?
Автор: sergavens
Дата сообщения: 10.03.2009 20:14
Не, он конвертит только Win и линукс машины. Новель не умеет.
http://www.vmware.com/products/converter/
Convert Microsoft Windows and Linux* based physical machines and third party image formats to VMware virtual machines

Имиджи Новеля тоже нечем снять: акронис снимет, но скопировать не может без дров сетевух. Ghost под новель давно не выпускают. Portlock стоит 15 т.р. и доставка месяц, ради одной машины невыгодно. Варезного нет нигде.
Автор: chapkin
Дата сообщения: 10.03.2009 20:19
Господа, помогите, плиз!!!!

Есть блейд, на нем стоит (встроенное) хранилище на 12 дисков. на хранилище стоит рейд5 одним большим куском (луна одна).
винда на одном из лезвий видит этот большой кусок. А ESX не видит, куда копать. Убил на это неделю.
Автор: Michigun
Дата сообщения: 10.03.2009 22:47

Цитата:
Не, он конвертит только Win и линукс машины. Новель не умеет.
http://www.vmware.com/products/converter/
Convert Microsoft Windows and Linux* based physical machines and third party image formats to VMware virtual machines

Имиджи Новеля тоже нечем снять: акронис снимет, но скопировать не может без дров сетевух. Ghost под новель давно не выпускают. Portlock стоит 15 т.р. и доставка месяц, ради одной машины невыгодно. Варезного нет нигде.

я правильно понимаю, что конвертером не пробовали переносить ВМ с Novel с ESX 2,5 на 3.5?

Если нет, то попробовать смысл имеет, ибо конвертер поправит формат файлов ВМ под 3.5, а Novel не тронет(раз не умеет с ним работать). Тем не менее, вероятность того, что он заведется без правки велика.

Потом, может быть подойдет бекап рестор? Из старой ВМ бекап, создаем новую на нее рестор. Я имею в виду какие нибудь штатные способы.

вот новел пишет про p2v, может и в этом случае пригодится -
http://www.novell.com/communities/node/4146/netware-server-migration-physical-virtual-p2v-using-vmware

Добавлено:

Цитата:
Есть блейд, на нем стоит (встроенное) хранилище на 12 дисков. на хранилище стоит рейд5 одним большим куском (луна одна).
винда на одном из лезвий видит этот большой кусок. А ESX не видит, куда копать. Убил на это неделю.

подробности в студию. Точно это "встроенное" хранилище не DAS?
Железо из списка совместимости?
ESX не видит LUN или контроллер?
Если это SAN, маскировка\зонирование настроены?
телепаты в отпуске (с)
Автор: chapkin
Дата сообщения: 11.03.2009 10:36

Цитата:
подробности в студию. Точно это "встроенное" хранилище не DAS?
Железо из списка совместимости?
ESX не видит LUN или контроллер?
Если это SAN, маскировка\зонирование настроены?


хранилище которое на борту блейда.
А где взять список совместимости?
скиньте доки (ссылки) где можно прочитать про настройку ЛУН и рейдов для ЕСХ
Автор: Valery12
Дата сообщения: 11.03.2009 10:58
Кто ставил VirtualCenter 2.5 U4, проблемы были?
Автор: str1k3r
Дата сообщения: 11.03.2009 11:52
Коллеги, вопрос:
CPU    Процессор AMD Opteron™ (Quad-Core) Model 2384 x2
MB    Мат. Плата Supermicro SM-H8DAi-2
RAM    Модуль памяти 4GB 667MHz DDR2 ECC Reg with Parity CL5 DIMM Dual Rank, x4 x8
RAID    3WARE 9690SA-8I Internal SAS/SATA
HDD     Жесткий диск 300GB 15000rpm 16MB SAS Cheetah 15K.5 Seagate x3, буду собирать в RAID 5

Хватит ли пропускной способности HDD для ~32-х виртуальных машин? Нагрузка не очень большая, в основном веб сервисы и тестовые виртуалки.
В данный момент основная часть реальных машин работает на компьютерах уровня п4-сел 3.0\512мб\80гб
Автор: kolia2002
Дата сообщения: 11.03.2009 11:57

Цитата:
Цитата:подробности в студию. Точно это "встроенное" хранилище не DAS?
Железо из списка совместимости?
ESX не видит LUN или контроллер?
Если это SAN, маскировка\зонирование настроены?



хранилище которое на борту блейда.
А где взять список совместимости?
скиньте доки (ссылки) где можно прочитать про настройку ЛУН и рейдов для ЕСХ


chapkin Напиши что за блейд и конфигурацию (быстрее ответ получишь)
Автор: alex_sikorsky
Дата сообщения: 11.03.2009 13:56

Цитата:
Кто ставил VirtualCenter 2.5 U4, проблемы были?


В продакшен пока не запускал.
А на лабораторном железе крутится уже больше недели, никаих граблей вроде не вылазило...
Автор: vecialfor
Дата сообщения: 11.03.2009 15:26
Простите за вопрос, но интересно было бы знать кто то занимался написанием софта под VMware ESX с использванием VIX?
Автор: chapkin
Дата сообщения: 11.03.2009 16:01

Цитата:

Цитата:подробности в студию. Точно это "встроенное" хранилище не DAS?
Железо из списка совместимости?
ESX не видит LUN или контроллер?
Если это SAN, маскировка\зонирование настроены?



хранилище которое на борту блейда.
А где взять список совместимости?
скиньте доки (ссылки) где можно прочитать про настройку ЛУН и рейдов для ЕСХ


chapkin Напиши что за блейд и конфигурацию (быстрее ответ получишь)


BladeCenterS
SAS RAID Controller Module (виндой определяется как LSI Adaptor SAS 3000 Series 1064)

Причем, при установке ЕСХ сама линукс видит хранилище и даже предлагает на него поставить ЕСХ.
а потом ЕСХ хранилище не видит

Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110

Предыдущая тема: IMS REAL/32 v7.8x ... 7.94 (Buy?)


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.