Ru-Board.club
← Вернуться в раздел «Другие ОС»

» VMware ESX Server и VMware Infrastructure

Автор: LevT
Дата сообщения: 27.02.2009 21:41
Michigun
ну теоретически можно гонять в одном физическом шнурке (или влане, или строже говоря канале) смешанный трафик любых подсетей Интернета - только с вопросами о том, что там в шнурке будет происходить, любые сетевые спецы будут посылать на йух и крутить пальцем у виска

...В общем-то имхо ничего страшного не случится - кроме того, что о фаерволах и акцес-листах придётся забыть.

...Опять же, это слишком сильное утверждение: когда-то у меня виртуализованная ISA вынужденно жила во фришном сервере на одном шнурке с хостом и жалобным воем ругалась в логах на предназначенный хосту трафик... Других последствий не было...


Добавлено:
В любом случае, обучению такое не поспособствует, а помешать пониманию происходящего в сети запросто может. Вывод: это очень грязное решение для очень бедного и неумно-жадного продакшена.
Автор: zeliboba
Дата сообщения: 28.02.2009 18:43
В самом серваке (железке) уже есть 2 сетевухи (АППАРАТНЫЕ). Можно как то вторую задействовать в виртуальной Фре? ESX почему то раздает от 1 до 4 сетевух (виртуальны) и именно из одной первой сетевухе (аппаратной). Если бы в свойствах виртуальной машины можно было выбрать типа 1 ВЛАН=1 аппаратной, а 2ВЛАН=2 аппаратной. Вот в чем вопрос!
В данный момент - если я втыкаю кабель во вторую аппаратную, виртуальная ее не пингует, т.к. не видит. Может в самой платформе (Линукс) вторую нужно как то сконфигурить?!
Автор: Ejijk
Дата сообщения: 28.02.2009 19:07
Господа поделитесь рабочим конфигом PC для ESX
Автор: Michigun
Дата сообщения: 28.02.2009 19:46

Цитата:
В самом серваке (железке) уже есть 2 сетевухи (АППАРАТНЫЕ). Можно как то вторую задействовать в виртуальной Фре? ESX почему то раздает от 1 до 4 сетевух (виртуальны) и именно из одной первой сетевухе (аппаратной). Если бы в свойствах виртуальной машины можно было выбрать типа 1 ВЛАН=1 аппаратной, а 2ВЛАН=2 аппаратной. Вот в чем вопрос!
В данный момент - если я втыкаю кабель во вторую аппаратную, виртуальная ее не пингует, т.к. не видит. Может в самой платформе (Линукс) вторую нужно как то сконфигурить?!

внимательно смотрим на закладку configuration, раздел networking.

Ejijk
http://www.vm-help.com/esx/esx3.5/Whiteboxes_SATA_Controllers_for_ESX_3.5_3i.htm
http://ultimatewhitebox.com/
Автор: zeliboba
Дата сообщения: 28.02.2009 20:23
Michigun
ога, спасибо огромное, включил второй. а вот как его во Фре включить, система не видит второй?
Автор: Ejijk
Дата сообщения: 28.02.2009 20:26
Michigun спасибо за ссылки их я проштудировал еще до того как начал читать эту ветку (что впрочем не помешало позабыть добавить их в закладки) , меня интересует конфиг PC тех людей к-е здесь общаются, для примера вроде как у LevT'a есть функционирующий комп с ESX
Автор: Michigun
Дата сообщения: 28.02.2009 20:54

Цитата:
ога, спасибо огромное, включил второй. а вот как его во Фре включить, система не видит второй?

она и не увидит.
ВМ видит свои виртуальные сетевушки, их ты добавляешь в свойствах ВМ.
эти виртуальные имеют собственные MAC и IP адреса.
воткнуты они в виртуальные коммутаторы, а те, через физические сетевущки, в коммутаторы физические.



Автор: zeliboba
Дата сообщения: 28.02.2009 20:58
Michigun
ниче не понял. А как сделать то? или это не реально?
Автор: Michigun
Дата сообщения: 28.02.2009 21:00
zeliboba
еще раз объясни что тебе надо.
Автор: zeliboba
Дата сообщения: 02.03.2009 07:25
FreeBSD в роли шлюза. В одну сетевую воткнуть модем, в другую свичь.
На самом аппаратном серваке стоят 2 сетевухи, но при создании ВМ ESX server раздает виртуальные сетевые и все из одной аппаратной. По совету выше я включил в конфигах ESX вторую аппаратную, а вот как теперь ее задействовать в ВМ с Фри. Что бы можно было воткнуть 2 шнурика сетевых в эти две сетевухи (аппаратные). т.е. к примеру что бы em0 была первая АППАРАТНАЯ, а em1 - вторая АППАРАТНАЯ.
Автор: brassnet
Дата сообщения: 02.03.2009 08:12
zeliboba
Создать еще один виртуальный свич, привязать его к второй сетевухе и один шланг твоей врюхи повесить на этот свич, а второй - куда нужно...
Автор: zeliboba
Дата сообщения: 02.03.2009 09:09
Обрыл всю закладку Конфигурация, так и не нашел как свич создать. Virtual machine, VMkernel, Service Console все это можно, а как свич создать, подскажите
Автор: brassnet
Дата сообщения: 02.03.2009 09:12
В настройках сети.
Автор: zeliboba
Дата сообщения: 02.03.2009 09:18
Ну да, там и смотрел, жму add networking вылазит визард и 3 варианта для добавления Virtual machine, VMkernel, Service Console и все!

Добавлено:
Автор: brassnet
Дата сообщения: 02.03.2009 09:49
zeliboba
Не, ну я все понимаю, но можно-же хоть ради интереса жмакнуть кнопку ADD Networking и выбрать там все по очереди, ну хотя-бы методом тыка...
Ну или выбрать сервис консоль... коль в трех пунктах не разобраться никак.
Автор: zeliboba
Дата сообщения: 02.03.2009 10:01
Все разобрался, нужно было виртуальную машину выбрать. Спасиба! Сори за нервы
Автор: vensen
Дата сообщения: 02.03.2009 14:07
Здравствуйте!
Подскажите пож-та вот в такой проблеме:

Сервер: Intel S3120SH, ICH9 пытаюсь установить ESX/ESXi
ESXi не получается установиьт совсем, читал по поводу установки на IDE, делал, пытался править TargetFilter.py - результатов не дало(витн был работал в режиме IDE).

ESX - установился (!!!), вроде бы все хорошо, получил доступ по ИПу, скаччал клиента, но тут засада: не могу создать виртуальный диск. В storage adapters вижу некие vmhda32, vmhda1 c интерфейсами SCSI.

Подскажите пож-та как мне убедить ESX увидеть диски!
Автор: brassnet
Дата сообщения: 02.03.2009 14:13
vensen
По порядку все опиши, какая конфигурация железа точно, а то поток мыслей сумбурных один...
Автор: vensen
Дата сообщения: 02.03.2009 14:51
Железо:
мамка: на Intel S3120SH
Южный мост: ICH9
HDD: два SATA винта

конфигурация BIOS:
режим HDD: IDE

Пытался ставить ESXi, ничего не получилось. Пишет не вижу дисков куда ставить, следовал инструкциям от сюда:
http://www.vm-help.com/esx/esx3i/ESXi_install_to_IDE_drive/

Попробовал поставить ESX - заинсталился, загрузился. Скачал клиента vi. Но при создании виртуальной машины не могу создать виртуальный диск:
в Select Disk/LUN пустое поле.

Хочется оставить ESX Server, но создать диски не получается, есть выход из такой ситуации?
Автор: brassnet
Дата сообщения: 02.03.2009 15:27
vensen
Что в стораджах видно?
Автор: vecialfor
Дата сообщения: 02.03.2009 15:28
vensen

Цитата:
Хочется оставить ESX Server, но создать диски не получается, есть выход из такой ситуации?
-
1) Как вариант расшарить на каком нибудь стороннем сервере диске через NFS - и примонтировать их ESX сервером. На такие диски можно устанавливать виртуальные машины и работать на них, но только скорость работы виртуальных машин будет ниже.
2) НАстроить iscsi и тоже примонтировать диски но это будет посложнее чем с NFS но скорость работы виртуальных машин насколько я знаю выше
Автор: vensen
Дата сообщения: 02.03.2009 15:51
brassnet
в Storage - пусто
в Storage Adapeters - vmfba32, vmfba1
видит 2х портовый контроллер SATA IDE Controller (ICH9)

vecialfor
хотелось бы задействовать винты сервера, все таки 2х400ГБ.
и впланах поднять на нем контроллер домена + essentials. Думаю нагрузка на дисковую подсистему будет высока...
но это и в правду выход... но к сожалению не подходит
Автор: brassnet
Дата сообщения: 02.03.2009 16:26

Цитата:
видит 2х портовый контроллер SATA IDE Controller (ICH9)

Если уверен что видит, то и диски должен видеть, как они отформатированы, одиночные, RAID? Жмакни на контроллере, жмакни пересканировать...
Автор: LevT
Дата сообщения: 02.03.2009 18:01
vensen
1) купи карточку sil 3112, 3114 или 3152 (внимание!!! PCI а не PCIe)
пишут также про промизы - но я их не щупал

Подключи туда саташный привод и поставь с него сервер на подключенный туда саташный драйв.

Потом подпилишь pciid - и сможешь обойтись без вставной карточки.


2) Про режим иде забудь, подключай чипсетные стораджи как ahci


Можно и без покупок и вставок, но с непривычки будет сложно, и объяснять муторно...


Добавлено:
vecialfor
потом, потом... Опыт показывает что виндовозу для уверенности в себе важно сначала завести локальный сторадж. Какой-никакой.

Любые ICH# будут работать c ESX - после подпиливания /etc/vmware/pciid/ahci.xml
Никаких рейдов: каждый сата канал будет показываться по отдельности. Стораджи на подключенных туда дисках будут создаваться.

Рейд (софтовый) можно сделать средствами гостя, прокинув ему таргеты хоста через rdm
Автор: vensen
Дата сообщения: 03.03.2009 11:50
отдельные благодарности:
brassnet
vecialfor
LevT
пасибо за помощь


brassnet
Диски не отформатированы были (нигде небыло указано что надо форматровать, и под какую FS). Пересканировать жмакал - не дало результатов.

LevT
с покупкой карточек к сожалению не вариант (хоть это и самый простой способ), слишком это дорого, никто не разрешит


Цитата:
2) Про режим иде забудь, подключай чипсетные стораджи как ahci

вот здесь имеется ввиду встроеный контроллер перевести в режим ahci??
дело в том что я пробовал - ESX Server даже не поставился, просил дров на контроллер, с IDE поставился аж бегом.

LevT

Цитата:
Можно и без покупок и вставок, но с непривычки будет сложно, и объяснять муторно...

если есть ссылочка как сделать поделись пож-та...

что я щас сделал:
гдето на vmware'вских форумах читал что нужно переставить HDD на другие каналы SATA, винты стояли на 1м и 2м; я переставил на последние 5й и 6й, и о чудо я увидел диск в Storage Adapters!! И смог создать Storage!!
Объяснить не могу с чем это связано...
Но есть еще трабла: я не вижу второго винта. Винт точно такой же Seagate 400Gb.
есть мысли как его увидеть?
Автор: fedor00
Дата сообщения: 03.03.2009 12:41
При создании виртуальной машины выдает такую ошибку vim.fault.InvalidState
Подскажите в чем может быть проблема?
Автор: LevT
Дата сообщения: 03.03.2009 17:56

Цитата:
с покупкой карточек к сожалению не вариант (хоть это и самый простой способ), слишком это дорого, никто не разрешит


карточки sil стоят 600-900 рублей в Маськве, промайзы в 2-3 раза дороже.


Цитата:
вот здесь имеется ввиду встроеный контроллер перевести в режим ahci??
дело в том что я пробовал - ESX Server даже не поставился, просил дров на контроллер, с IDE поставился аж бегом.


вот если бы ты ставил на sil - поставился бы
потом надо было поглядеть pciid твоей шелезяки, подправить файл ahci.xml и запустить

esxcfg-pciid && esxcfg-boot -p && esxcfg-boot -b && reboot


если не будет карточки, ищи саташный винт с уже установленным ESX и подпиливай там. Целевой pciid можешь подглядеть под виндой или линуксом или любой другой осью.

Только муторный гимор для новичка будет править аплинки vswitch-ей после перетыкания системного винта.

Автор: pitblack
Дата сообщения: 03.03.2009 20:06
Ситуация:
dl580g5, fc адаптер в нем, eva4000-хранилище.esx 3.5
на сервере необходимо построить лабу. 2 win2003 на виртуалках+общий диск(для оракловой кластерной файловой системы). Нарезал на eva vDisk(LUN) 100gb, отдаю его первому хосту по
rdm(add->new disk->create new disk ->store with VM->physical-пишу по памяти так как не на работе)
Тоже самое делаю на втором хосте(add->new disk->create new disk ->store with VM->physical)
Пробовал persistent,independed и т.д. Стартую первый хост -все OK, второй хост не стартует вовсе пишет то файл не найден, то файл блокирован в зависимости от independed и т.д

Народ помогите словом или ткните носом в мануал
Автор: Oleg_Kurilin
Дата сообщения: 03.03.2009 22:44
pitblack
В свойствах виртуального адаптера указал тип шаринга?
Автор: Michigun
Дата сообщения: 04.03.2009 08:59

Цитата:
    Ситуация:
dl580g5, fc адаптер в нем, eva4000-хранилище.esx 3.5
на сервере необходимо построить лабу. 2 win2003 на виртуалках+общий диск(для оракловой кластерной файловой системы). Нарезал на eva vDisk(LUN) 100gb, отдаю его первому хосту по
rdm(add->new disk->create new disk ->store with VM->physical-пишу по памяти так как не на работе)
Тоже самое делаю на втором хосте(add->new disk->create new disk ->store with VM->physical)
Пробовал persistent,independed и т.д. Стартую первый хост -все OK, второй хост не стартует вовсе пишет то файл не найден, то файл блокирован в зависимости от independed и т.д

Народ помогите словом или ткните носом в мануал

там все просто - когда создается RDM, в качестве диска ВМ все равно числится vmdk - можно посмотреть в свойствах ВМ.
это фиктивный vmdk, являющийся ссылкой на RDM LUN.
для второй ноды кластера надо эту луну подключать не как RDM, а выбирать "use existing " и выбирать тот фиктивный vmdk.

так же, общий диск необходимо вешать на второй SCSI контроллер(для диска выбрать scsi node не 0:1, а 1:0)
и в свойствах этого контроллера bus sharing поставить в physical.

вообще, есть смысл заглянуть в мануал по поднятию MSCS на ВМ - у vmware такой есть, там описаны эти и др. нюансы.
в частности, если оба узла кластера на одном хосте - в качестве общего диска можно не rdm а vmdk использовать.
bus sharing тогда должен быть virtual.

Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110

Предыдущая тема: IMS REAL/32 v7.8x ... 7.94 (Buy?)


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.