Насколько я понял, в ESX есть встроенный файрвол в котором для управления достаточно открыть 902 and 903 порты. А вот что касается аунтификации пользователя esx - используется ли шифрование VI клиентом ?
» VMware ESX Server и VMware Infrastructure
Цитата:
Сервер стоит на площадке провайдера, доступ к нему осуществляется посредством VI Client, соответственно ESX имеет публичный ip адрес, по которому и происходит управление сервером.
Ну смотри - на ESX стоит файрвол, который закрывает управляющий интерфейс. Для VI клиента нужны 902 и 903(по дефолту, 903 для консоли к ВМ). Там по дефолту почти все остальное вроде и прикрыто, но это можно посмотреть. Трафик от VI клиента шифруется.
Если через внешний интерфейс еще и ВМ в сеть ходят - то ESX их никак не прикрывает.
Сам смотри, наколько тебя это устраивает.
anr69
я сходил в vmware online library, поискал по слову raw , первую ссылку почитал и нашел
VMFS also supports raw device mapping (RDM). RDM provides a mechanism for a virtual machine to have direct access to a LUN on the physical storage subsystem (Fibre Channel or iSCSI only). RDM is useful for supporting two typical types of applications:
Michigun
Блин, самого периодически подводит непрочтение сообщений об ошибке
перечитал пост ffk31337, обратил внимание на
Цитата:Unable to contact a primary HA agent in cluster cluster in datacenter
вот это уже похоже на проблемы именно с сетью. А что именно - трудно сказать. Попробуйте, действительно, максимально простую конфигурацию. Проверьте разрешение имен.
Да блин фигня какая то, раньше то HA работал, блог у Вас хороший, читал раньше.
на циске по этим портам упростить нечего.
----------------------------------
interface GigabitEthernet0/2
!
interface GigabitEthernet0/3
!
interface GigabitEthernet0/4
!
interface GigabitEthernet0/5
-----------------------------------
А контроллер домена соответственно с DNS на одной из VM
Хосты По nslookup:
Server: servv.oktbrserv.local
Address: 192.168.0.200
Name: vmserv.oktbrserv.local
Address: 192.168.0.130
Server: servv.oktbrserv.local
Address: 192.168.0.200
Name: vmserv3.oktbrserv.local
Address: 192.168.0.131
По пингам соответственно тоже все хороше.
Кстати а выключеные VM в момент активации HA считаються под ресурсы?
Блин, самого периодически подводит непрочтение сообщений об ошибке
перечитал пост ffk31337, обратил внимание на
Цитата:Unable to contact a primary HA agent in cluster cluster in datacenter
вот это уже похоже на проблемы именно с сетью. А что именно - трудно сказать. Попробуйте, действительно, максимально простую конфигурацию. Проверьте разрешение имен.
Да блин фигня какая то, раньше то HA работал, блог у Вас хороший, читал раньше.
на циске по этим портам упростить нечего.
----------------------------------
interface GigabitEthernet0/2
!
interface GigabitEthernet0/3
!
interface GigabitEthernet0/4
!
interface GigabitEthernet0/5
-----------------------------------
А контроллер домена соответственно с DNS на одной из VM
Хосты По nslookup:
Server: servv.oktbrserv.local
Address: 192.168.0.200
Name: vmserv.oktbrserv.local
Address: 192.168.0.130
Server: servv.oktbrserv.local
Address: 192.168.0.200
Name: vmserv3.oktbrserv.local
Address: 192.168.0.131
По пингам соответственно тоже все хороше.
Кстати а выключеные VM в момент активации HA считаються под ресурсы?
Цитата:
Кстати а выключеные VM в момент активации HA считаються под ресурсы?
нет.
с одного ESX пинги на другой по имени ходят? И в обратную сторону.
Упростите конфиг со стороны ESX - оставьте одну сетевушку.
Посмотрите логи
/opt/LGTOaam512/log/*
/opt/LGTOaam512/vmsupport/*
panvartan
Цитата:
вот к твоему вопросу на глаза попалось - http://searchservervirtualization.techtarget.com/expert/KnowledgebaseAnswer/0,289625,sid94_gci1281022_tax303515,00.html
Цитата:
Сервер стоит на площадке провайдера, доступ к нему осуществляется посредством VI Client, соответственно ESX имеет публичный ip адрес, по которому и происходит управление сервером.
вот к твоему вопросу на глаза попалось - http://searchservervirtualization.techtarget.com/expert/KnowledgebaseAnswer/0,289625,sid94_gci1281022_tax303515,00.html
Michigun
Цитата:
Прошу совета в выборе железа. Сейчас есть 8 серверов: HP DL385, остальные - Intel; возраст - 1-3 года.
Необходимо перейти на виртуальную инфраструктуру с учетом Microsoft Infrastructure Optimization.
На что переходить:
1. Обновить 4 сервера для поддержки аппаратной виртуализации + купить SAN
2. Продать все сервера и купить Blade от HP, IBM, FJS, ...
?
Что лучше, как правильней?
У кого Blade - как впечатления, как выбрали бренд?
Статья про блейды: http://servervirtualization.blogs.techtarget.com/2007/10/08/draft-scaling-up-or-scaling-out-revisted/
Цитата:
Цитата:
Цитата:
Вот и хотелось бы знать - с какими "брендами" и "вендорами" лучше не связываться, потому что они гребут все под себя и их цель меня подсадить, а не продать мне качественную (совместимую) железяку.
Опять же ИМХО - если мы говорим о брендах(HP, IBM, Fujitsu-Siemens и т.п.), то их сервера(стораджи), явно указанные в списке совместимости на vmware.com - работают с VI3. Более того - саппортятся, если софт покупается честно.(кстати, по отзывам - с т.зрения саппорта VI3 лучше покупать не у вендоров, т.к. их саппорт esx'а для России так себе).
Прошу совета в выборе железа. Сейчас есть 8 серверов: HP DL385, остальные - Intel; возраст - 1-3 года.
Необходимо перейти на виртуальную инфраструктуру с учетом Microsoft Infrastructure Optimization.
На что переходить:
1. Обновить 4 сервера для поддержки аппаратной виртуализации + купить SAN
2. Продать все сервера и купить Blade от HP, IBM, FJS, ...
?
Что лучше, как правильней?
У кого Blade - как впечатления, как выбрали бренд?
Статья про блейды: http://servervirtualization.blogs.techtarget.com/2007/10/08/draft-scaling-up-or-scaling-out-revisted/
Цитата:
I hate blades in their current incarnation
Michigun
Цитата:
нет локальное SCSI оно точно позволяет
тот топик что вы привели касается сетевого дискового подключения
но меня смущая то что у меня Стартер ESX и в VC пункт подключения диска по SAN не подсвечен.
и возможно они и локальные из-за этого не дают подключить.
binagal
у HP щас есть блейд сервера с внутренней шаред стореджью
вот тока если есть SAN то накой она нада
по поводу что лучше ....
мне показалось что лучше купить HP DL5XX четырех процессорных по четыре ядра получив по 16 процессоров от сервера
и все это виртуализировать
чем накупить кучу блейд модулей
потому как платишь в ESX на СЕРВЕР и чем мощнее он тем дешевле стоимость виртуальной машины
Цитата:
я сходил в vmware online library, поискал по слову raw , первую ссылку почитал и нашел
VMFS also supports raw device mapping (RDM). RDM provides a mechanism for a virtual machine to have direct access to a LUN on the physical storage subsystem (Fibre Channel or iSCSI only). RDM is useful for supporting two typical types of applications:
нет локальное SCSI оно точно позволяет
тот топик что вы привели касается сетевого дискового подключения
но меня смущая то что у меня Стартер ESX и в VC пункт подключения диска по SAN не подсвечен.
и возможно они и локальные из-за этого не дают подключить.
binagal
у HP щас есть блейд сервера с внутренней шаред стореджью
вот тока если есть SAN то накой она нада
по поводу что лучше ....
мне показалось что лучше купить HP DL5XX четырех процессорных по четыре ядра получив по 16 процессоров от сервера
и все это виртуализировать
чем накупить кучу блейд модулей
потому как платишь в ESX на СЕРВЕР и чем мощнее он тем дешевле стоимость виртуальной машины
Цитата:
тот топик что вы привели касается сетевого дискового подключения
Цитата:
подскажите как к виртуальной машине на ESX 3(стартер) подключить физический сказевый диск?
Цитата:
RDM provides a mechanism for a virtual machine to have direct access to a LUN on the physical storage subsystem
Еще раз - чего вы хотите добиться???
Цитата:
у HP щас есть блейд сервера с внутренней шаред стореджью
Это как? Мне интересно просто.
Цитата:
потому как платишь в ESX на СЕРВЕР
Наглая ложь
Платишь в ESX за процессор(сокет). Так что в стоимости софта разница будет минимальна.
ИМХО, но это имхо не много стоит, ибо практического опыта сравнения эксплуатации на блейдах и на не блейдах у меня не много. Но так вот - разницы особо нет, мне кажется. Надо изучить специфику тех блейдов, с которыми предполагается работать, и из нее делать выводы устраивает или нет.
По, например, тепловыделению, потреблению и производительности сравнение десятка блейдов и пары больших 4 процессорных серверов я не знаю в чью пользу будет. Но это можно просто посмотреть.
У блейдов одна проблема кардинальная - хуже расширяемость, т.е. далеко не всегда можно сетевушку там еще воткнуть и т.п.
Если планируется несколько приложению продолжать использовать на физической машине - блейды, возможно, будут интереснее - т.к. большого сервака для этих приложений может быть много. А с блейдами у нас единое решение и под ВМ и под тяжелые приложения без виртуализации.
В общем, я вижу много влияющих факторов, но все они зависят от вашей конкретной инфраструктуры, задач. Думаю, грамотный интегратор с вами внятно все это сможет обсудить.
Michigun
Цитата:
наскока я понял просто в корпусе блейд стойки есть небольшой дисковый массив и его можна шарить между серверами по scsi
Цитата:
в конфигураторе HP на четырех сокетные сервера DL5xx цена ESX указана таже самая что и на дву сокетные DL3xx
я только это имел в виду
я понял что основное что блейд позволяет экономить это на возможности общего использования сетевых адаптеров и SAN
хотя цены там ужасные и разобраться что экономически более выгодно сложно
скорее всего выгода появляется когда речь идет о больше 10 серверов в блейде
Цитата:
на воркстайшене можно легко подключить к виртуальной машине ЦЕЛЫЙ SCSI HDD
вот пытаюсь на esx3 стартер сделать тоже самое
пока только запутался с этими RAW :-D
Цитата:
у HP щас есть блейд сервера с внутренней шаред стореджью
Это как? Мне интересно просто.
наскока я понял просто в корпусе блейд стойки есть небольшой дисковый массив и его можна шарить между серверами по scsi
Цитата:
Цитата:
потому как платишь в ESX на СЕРВЕР
Наглая ложь
в конфигураторе HP на четырех сокетные сервера DL5xx цена ESX указана таже самая что и на дву сокетные DL3xx
я только это имел в виду
я понял что основное что блейд позволяет экономить это на возможности общего использования сетевых адаптеров и SAN
хотя цены там ужасные и разобраться что экономически более выгодно сложно
скорее всего выгода появляется когда речь идет о больше 10 серверов в блейде
Цитата:
Еще раз - чего вы хотите добиться???
на воркстайшене можно легко подключить к виртуальной машине ЦЕЛЫЙ SCSI HDD
вот пытаюсь на esx3 стартер сделать тоже самое
пока только запутался с этими RAW :-D
Michigun огромное спасибо за содействие - по поводу безопасности VI кое что прояснилось.
При настройке ESX столкнулся со следующей проблемой. При начальной установке ESX прописывается ip, mask and dns service console. При этом можно выбрать один из двух имеющихся у меня адаптеров. Я выбираю, прописываю вручную айпи, хотя в сети работает Dhcp сервер. Захожу через клиент - смотрю настройки. Действительно в cervice console port имеет присвоенный мной адрес, но оба networks adapters имеют одинаковый ip, полученный автоматически и отличающийся от установленного мной вручную. Я так и не понял как поменять ip адрес networks adapters. Вижу, что можно поменять DNS, можно поменять ip адрес service console, но адрес физический адаптеров (те которые в меню networks adapters ) то как изменить? Пробывал поискать команды для консоли, ничего подходящего не нашел - там теже самые варианты, что и в VI клиенте.
При настройке ESX столкнулся со следующей проблемой. При начальной установке ESX прописывается ip, mask and dns service console. При этом можно выбрать один из двух имеющихся у меня адаптеров. Я выбираю, прописываю вручную айпи, хотя в сети работает Dhcp сервер. Захожу через клиент - смотрю настройки. Действительно в cervice console port имеет присвоенный мной адрес, но оба networks adapters имеют одинаковый ip, полученный автоматически и отличающийся от установленного мной вручную. Я так и не понял как поменять ip адрес networks adapters. Вижу, что можно поменять DNS, можно поменять ip адрес service console, но адрес физический адаптеров (те которые в меню networks adapters ) то как изменить? Пробывал поискать команды для консоли, ничего подходящего не нашел - там теже самые варианты, что и в VI клиенте.
Цитата:
наскока я понял просто в корпусе блейд стойки есть небольшой дисковый массив и его можна шарить между серверами по scsi
из такого объяснения не ясно, что такая возможность может дать для ESX.
Цитата:
в конфигураторе HP на четырех сокетные сервера DL5xx цена ESX указана таже самая что и на дву сокетные DL3xx
VMware продает лицензии на сокеты. Может быть, у HP как то по другому, а может ошибка это.
Цитата:
я понял что основное что блейд позволяет экономить это на возможности общего использования сетевых адаптеров и SAN
Опять таки, не знаю как у HP. Я знаю как у Fujitsu-Siemens - там каждый блейд это сервер. Мать, 2 камня, оперативка. От 2 до 8 сетевушек, от 0 до 2 FC hba. Все это в самом сервере. А в шасии могут стоят коммутаторы, как Ethernet, так и FC - вот они как раз шарятся между всеми "лезвиями". Ну и плюс именно в шасси стоят БП, вентиляторы, управлялка всем этим.
Вобщем, блейды интересны примерно тем же, чем и виртуализация - консолидацией. У FSC шасси 7U, в нем до 10 2х процессорных серверов. Плюс коммутаторы. И эти 10 эффективнее используют БП и вентиляторы и сетевую инфраструктуру. Вкратце так. Я уверен, у других вендоров ситуация примерно такая же, с учетом того, что кто то позволяет не только серверные лезвия использовать, но и "хранилищные", "ввода вывода".
Цитата:
на воркстайшене можно легко подключить к виртуальной машине ЦЕЛЫЙ SCSI HDD
вот пытаюсь на esx3 стартер сделать тоже самое
пока только запутался с этими RAW :-D
Подключить целый LUN к ВМ - для ESX это называется как раз Raw Device Mapping, или RDM. Тот документ, который я приводил, посвящен как раз ему. В свойствах ВМ добавляете новый HDD, в мастере говорите когда будет выбор что использовать как диск- Use raw LUN. Вам покажут список всех LUN, которые подходят для такого использования. На них, во первых, не должно быть никаких разделов, а во вторых - то, что написано в том документе - они должны быть на FC или iSCSI сторадже.
Добавлено:
Я точно просто не помню - МОЖЕТ БЫТЬ, заработает RDM и на локальном диске. А может и нет.
Добавлено:
Цитата:
но оба networks adapters имеют одинаковый ip, полученный автоматически и отличающийся от установленного мной вручную. Я так и не понял как поменять ip адрес networks adapters. Вижу, что можно поменять DNS, можно поменять ip адрес service console, но адрес физический адаптеров (те которые в меню networks adapters ) то как изменить? Пробывал поискать команды для консоли, ничего подходящего не нашел - там теже самые варианты, что и в VI клиенте.
Где смотрите? Если во второй закладке в св-х vSwitch, строка вроде Network называется,
то там пишется подсети, пакеты из которых были пойманы на этом сетевом контроллере. Это - справочная инфа, отображается для того, чтобы админу было проще сориентироваться, куда скомутированна эта сетевушка.
Самое главное - под ESX у физических сетевушек НЕТ ни MAC, ни IP адреса!
Коммутаторы и клиенты видят только виртуальные сетевушки - сетевушки ВМ, ServiceConsole или vmkernel.
Michigun
Цитата:
Я вот это имел в виду
http://h18004.www1.hp.com/products/servers/storageworks/c-class/sb40c/index.html
насколько я понял этот массив будет доступен для любого из серверов
тем самым можно вазшарить хранилище виртуальных машин между esx серверами в блейде
но живьем такого зверя не пробовал
и про совместное использование блейд серверами одного FAC подключения только читал
на сколько я понял в блейде есть общая шина данных а не только управления и через нее организует совместное использование сетевых и fac адаптеров
Цитата:
может и ошибка но у меня в лицензии написано максимум 4 CPU и насколько я понял это сокета а не ядер. А лицензирование HP потом всеравно на VMWARE перекидывает, так что разницы никакой. Но опятьже DL5xx я не лицензировал
у нас щас есть только DL380 c 8-ю ядрами
по поводу RAW
в ограничения по использованию написано
Not Available for Block Devices or Certain RAID Devices – RDM (in the current
implementation) uses a SCSI serial number to identify the mapped device. Because
block devices and some direct-attach RAID devices do not export serial numbers,
they can't be used with RDMs.
может в этом вся проблема
если так то все это странно почему в воркстейшене это допускать а на более функциональном ESX ограничить
радует конечно што хоть SAN подрубить можно
попутно вопрос эксплуатирует ли кто файловый сервер на ESX не важно какой хоть самбу хоть винду или нетварь главное чтобы с хорошей нагрузкой и большим количеством пользователей , ну хотябы больше сотни. (нагрузка на дисковую подсистему и многими потоками)
справляется ли с этм ESX? понятно чудес не бывает ... но можно ли пожертвовать потерей производительности в угоду виртуализации инфраструктуры?
Цитата:
Цитата:
наскока я понял просто в корпусе блейд стойки есть небольшой дисковый массив и его можна шарить между серверами по scsi
из такого объяснения не ясно, что такая возможность может дать для ESX.
Я вот это имел в виду
http://h18004.www1.hp.com/products/servers/storageworks/c-class/sb40c/index.html
насколько я понял этот массив будет доступен для любого из серверов
тем самым можно вазшарить хранилище виртуальных машин между esx серверами в блейде
но живьем такого зверя не пробовал
и про совместное использование блейд серверами одного FAC подключения только читал
на сколько я понял в блейде есть общая шина данных а не только управления и через нее организует совместное использование сетевых и fac адаптеров
Цитата:
Цитата:
в конфигураторе HP на четырех сокетные сервера DL5xx цена ESX указана таже самая что и на дву сокетные DL3xx
VMware продает лицензии на сокеты. Может быть, у HP как то по другому, а может ошибка это.
может и ошибка но у меня в лицензии написано максимум 4 CPU и насколько я понял это сокета а не ядер. А лицензирование HP потом всеравно на VMWARE перекидывает, так что разницы никакой. Но опятьже DL5xx я не лицензировал
у нас щас есть только DL380 c 8-ю ядрами
по поводу RAW
в ограничения по использованию написано
Not Available for Block Devices or Certain RAID Devices – RDM (in the current
implementation) uses a SCSI serial number to identify the mapped device. Because
block devices and some direct-attach RAID devices do not export serial numbers,
they can't be used with RDMs.
может в этом вся проблема
если так то все это странно почему в воркстейшене это допускать а на более функциональном ESX ограничить
радует конечно што хоть SAN подрубить можно
попутно вопрос эксплуатирует ли кто файловый сервер на ESX не важно какой хоть самбу хоть винду или нетварь главное чтобы с хорошей нагрузкой и большим количеством пользователей , ну хотябы больше сотни. (нагрузка на дисковую подсистему и многими потоками)
справляется ли с этм ESX? понятно чудес не бывает ... но можно ли пожертвовать потерей производительности в угоду виртуализации инфраструктуры?
Цитата:
Самое главное - под ESX у физических сетевушек НЕТ ни MAC, ни IP адреса!
Теперь прояснилось, те получается, что service console это тоже своеобразная виртуальная гостевая система, который по умолчанию запускается на ESX и служит для управления. Получается что VI клиент - это интерфейс управления виртуальной машиной service console. Поэтому и файрвол service console прикрывает только себя и не распространяется на другие гостевые системы. Поэтому и при создании virtual machine network айпи не приписывается - он прописывается из гостевой системы. Неужели до такой степени "голое" железо ?
А если создается еще одна service console - это создается еще одна гостевая система или виртуальный сетевой адаптер? Интересно для чего?
И еще вопрос, DNS and routing относится в таком случае только к service console и не распространяется на другие гостевые системы?
Цитата:
Неужели до такой степени "голое" железо ?
вмварь делает виртуальный сетевой адаптер на виртуальной машине
и получается что гостевая совсем не знает что у вас за железо и в каком сетов окружении работает ESX. естественно настройки DNS и тд для каждой машины можно делать уникальными и никак не зависящими от настроек консоли
Цитата:
А если создается еще одна service console - это создается еще одна гостевая система или виртуальный сетевой адаптер? Интересно для чего?
это только для управления
допустим у вас есть изолированные подсети и необходимо управлять сервером
Цитата:
еперь прояснилось, те получается, что service console это тоже своеобразная виртуальная гостевая система, который по умолчанию запускается на ESX и служит для управления
Не совсем так. SC - полноценный Linux, стоящий РЯДОМ с гипервизором(vmkernel). Но вот сеть, и именно сеть для SC такая же виртуальная, как для ВМ.
Цитата:
Неужели до такой степени "голое" железо ?
Ограниченная поддержка железа ESX обусловлена необходимостью драйверов для vmkernel.
Цитата:
А если создается еще одна service console - это создается еще одна гостевая система или виртуальный сетевой адаптер? Интересно для чего?
Невозможно создать "еще одну ServiceConsole". Вот для единственной добавить сетевушек(виртуальных само собой) - сколько угодно.
Цитата:
И еще вопрос, DNS and routing относится в таком случае только к service console и не распространяется на другие гостевые системы?
конечно.
anr69
по ссылке углядел только что это DAS, по всей видимости к одному и тому
же диску доступ с нескольких лезвий получить не удасться.
Цитата:
если так то все это странно почему в воркстейшене это допускать а на более функциональном ESX ограничить
скорее всего потому, что для ворксешна сделать такую штуку помогает винда, под которой он стоит.
Michigun
Цитата:Кстати а выключеные VM в момент активации HA считаються под ресурсы?
нет.
с одного ESX пинги на другой по имени ходят? И в обратную сторону.
Упростите конфиг со стороны ESX - оставьте одну сетевушку.
Посмотрите логи
/opt/LGTOaam512/log/*
/opt/LGTOaam512/vmsupport/*
Спасибо за участие, ситуация разрешилась - в свое время была добавлена вторая service console , да еще без статического ip - удалил HA поднялся.
Цитата:Кстати а выключеные VM в момент активации HA считаються под ресурсы?
нет.
с одного ESX пинги на другой по имени ходят? И в обратную сторону.
Упростите конфиг со стороны ESX - оставьте одну сетевушку.
Посмотрите логи
/opt/LGTOaam512/log/*
/opt/LGTOaam512/vmsupport/*
Спасибо за участие, ситуация разрешилась - в свое время была добавлена вторая service console , да еще без статического ip - удалил HA поднялся.
Цитата:
в свое время была добавлена вторая service console ,
это как?
LevT
Как, как - клавишей ADD
Если серьезно, попозже побалуюсь с этим, в случае двух vswitch с своими железными картами может и имеет смысл для отказоустойчевости.
Как, как - клавишей ADD
Если серьезно, попозже побалуюсь с этим, в случае двух vswitch с своими железными картами может и имеет смысл для отказоустойчевости.
Народ, такой вопрос. Есть VMware сервер - к нему я нормально подключаюсь через VI client. Все виртуальные машины доступны, консоль управления виртуальными машинами тоже доступна, вижу изображение виртуальной машины, могу с ней работать. А вот пользователи с других компов получают изображение своей виртуальной машины не всегда, порой после перезагрузки VI client, подскажите с чем это может быть связано.
И еще такой вопрос. Читал документацию по VMware и наткнулся на следующее:
Network File System (NFS) is provided by rpc.nfsd and would normally be launched by an nfs script in /etc/rc.d. To start using NFS to mount directories on other ESX or Linux servers, we can use the following steps:
1. Change the ESX Server which is to be the NFS server, to use medium security (using the MUI is easiest for this).
2. Add an entry to the file /etc/exports on the NFS server by either using vi text editor (/vmimages *) or use the exportfs command
3. Check that the NFS client IP address or hostname is not excluded by the server file /etc/hosts.deny
4. It is up to you if you explicitly allow the NFS client by adding the NFS client to /etc/hosts.allow on the NFS server
5. Start the NFS server daemons
a. /etc/rc.d/init.d/service portmap start
b. /etc/rc.d/init.d/service nfslock start
c. /etc/rc.d/init.d/service nfs start
6. Start the NFS client daemons
a. /etc/rc.d/init.d/service netfs start
b. /etc/rc.d/init.d/service portmap start
7. Mount remote export directory (on the NFS server) from the NFS client with the command
a. mount –t nfs nfsserver:/export localdir/localmount
Если я правильно перевел фразу: To start using NFS to mount directories on other ESX or Linux servers, we can use the following steps - то можно монтировать NFS директории на других ESX и Linux серверах. То есть получается что ESX сервер может быть NFS-сервером??? Если да, то как это сделать? Заранее спасибо
И еще такой вопрос. Читал документацию по VMware и наткнулся на следующее:
Network File System (NFS) is provided by rpc.nfsd and would normally be launched by an nfs script in /etc/rc.d. To start using NFS to mount directories on other ESX or Linux servers, we can use the following steps:
1. Change the ESX Server which is to be the NFS server, to use medium security (using the MUI is easiest for this).
2. Add an entry to the file /etc/exports on the NFS server by either using vi text editor (/vmimages *) or use the exportfs command
3. Check that the NFS client IP address or hostname is not excluded by the server file /etc/hosts.deny
4. It is up to you if you explicitly allow the NFS client by adding the NFS client to /etc/hosts.allow on the NFS server
5. Start the NFS server daemons
a. /etc/rc.d/init.d/service portmap start
b. /etc/rc.d/init.d/service nfslock start
c. /etc/rc.d/init.d/service nfs start
6. Start the NFS client daemons
a. /etc/rc.d/init.d/service netfs start
b. /etc/rc.d/init.d/service portmap start
7. Mount remote export directory (on the NFS server) from the NFS client with the command
a. mount –t nfs nfsserver:/export localdir/localmount
Если я правильно перевел фразу: To start using NFS to mount directories on other ESX or Linux servers, we can use the following steps - то можно монтировать NFS директории на других ESX и Linux серверах. То есть получается что ESX сервер может быть NFS-сервером??? Если да, то как это сделать? Заранее спасибо
Ребят, поделитись пожалуйста ссылкой на русской FAQ для ознакомления с VMware, али сами поведайте каким образом правильно создавать образ для виртуальной операционной системы. Посмотрел в шапке, но FAQ на английском даже не знаю откуда начать штудировать. Да и чего тут говорить, кирилицу легче усвоить, чем вникать в басурманский. ))
Кстати, после установки VMware, обратил внимание на то, что система (WinXp) стала стартовать очень долго. Загружается рабочий стол с некоторыми треевыми программами, а затeм система усердно пытается что-то переварить. В это время ничего делать не дает, а отвисает только спустя 5 минут. Не сталкивались с такой проблемой? Может быть конфликт здесь между Касперским и VMware? После сноса VMware снова стал подыматься быстро и без фризов.
Кстати, после установки VMware, обратил внимание на то, что система (WinXp) стала стартовать очень долго. Загружается рабочий стол с некоторыми треевыми программами, а затeм система усердно пытается что-то переварить. В это время ничего делать не дает, а отвисает только спустя 5 минут. Не сталкивались с такой проблемой? Может быть конфликт здесь между Касперским и VMware? После сноса VMware снова стал подыматься быстро и без фризов.
Люди такой вопрос. НАстроил вторую консоль на ESX сервере. Вывел ее в другую подсеть. И такая проблема. Когда работаю через вторую консоль, то периодически соединение теряется с сервером. А есть захожу через Putty на сервак под адресом новой консоли, то у меня Access denied, со второй е попытки получилось войти через Putty ничего при этом не меняя. С чем это может быть связано?
Добавлено:
Цитата:
Добавлено:
Цитата:
поведайте каким образом правильно создавать образ для виртуальной операционной системы- что именно тебя интересует то? Вроде все пошагово делается или какие то сложности возникают?
Цитата:
Люди такой вопрос. НАстроил вторую консоль на ESX сервере. Вывел ее в другую подсеть. И такая проблема. Когда работаю через вторую консоль, то периодически соединение теряется с сервером. А есть захожу через Putty на сервак под адресом новой консоли, то у меня Access denied, со второй е попытки получилось войти через Putty ничего при этом не меняя. С чем это может быть связано?
Настаиваю, что НАстроил вторую консоль на ESX сервере uговрить неправильно.
Правильно - для понимания в первую очередь, говорить - создал очередной интерфейс для сервис консоли.
если ты в винде сделаешь два интерфейса, физически их скомутируешь по разному, а IP дашь из одной подсети - примерно так себя и винда поведет.
Так что имхо вопрос сетевикам.
К одной сетевухе ESX подключен инет с одним ip адресом, соответсвенно этот ip заведен на виртуальной машине (прокси), можно ли сделать чтобы подключения на опреденный порты по данному ip перенапрявлялись на ESX Console, вообще это нужно для того чтобы можно было удаленно управлять esx-ом даже если прокси-виртуалка выключена или не принимает подключения
Цитата:
чтобы подключения на опреденный порты по данному ip перенапрявлялись на ESX Console,
Да.
Цитата:
вообще это нужно для того чтобы можно было удаленно управлять esx-ом даже если прокси-виртуалка выключена или не принимает подключения
тогда нет. Перенаправление портов на прокси делается на раз. Но если прокси лежит - нет никакого перенаправления.
подскажите плиз
я использую лицензионный файл
после приема лицензии создается такой файл
/etc/vmware/vmware.lic
он нужен в системе или это для бэкапа ?
оно конечно можно его грохнуть и поглядеть
но тут такие умные люди сидят что грех такой возможностью не воспользоваться
я использую лицензионный файл
после приема лицензии создается такой файл
/etc/vmware/vmware.lic
он нужен в системе или это для бэкапа ?
оно конечно можно его грохнуть и поглядеть
но тут такие умные люди сидят что грех такой возможностью не воспользоваться
Michigun
У меня такой вопрос. А можно ли для управления ESX server 3.0.0 использовать Victual Center 2.0.1, а не Virtual Center 2.0.0
У меня такой вопрос. А можно ли для управления ESX server 3.0.0 использовать Victual Center 2.0.1, а не Virtual Center 2.0.0
еще в догонку каверзный вопрос
если лицензия в файле то мне кто-то может помешать поставить ее еще и на другой сервер
конечно совесть меня будет мучать всю оставшуюся жизнь
если лицензия в файле то мне кто-то может помешать поставить ее еще и на другой сервер
конечно совесть меня будет мучать всю оставшуюся жизнь
Цитата:
А можно ли для управления ESX server 3.0.0 использовать Victual Center 2.0.1, а не Virtual Center 2.0.0
а смысл? Посмотри в release notes к версиям x.0.1, я не уточнял такие вещи.
anr69
на ESX файл lic удалять не стоит.
Что касается последнего - у тебя в принципе много вариантов -
просто крякнуть - в варезнике тема больше этой
зарегестрироваться для скачивания на vmware.com - тебе пришлют ключик на месяц.
и 12 раз в год регистрироваться, чем не вариант?
Michigun
ну видимо имеется в виду - купить лицензию на один сервак, а использовать ее на куче серверов. Получится в пределах одного датацентра? А в разных?
Если это в принципе возможно - тогда удивительно, что до сих пор нет в паблике таких файликов...
ну видимо имеется в виду - купить лицензию на один сервак, а использовать ее на куче серверов. Получится в пределах одного датацентра? А в разных?
Если это в принципе возможно - тогда удивительно, что до сих пор нет в паблике таких файликов...
все такие вопросы - в варезник.
и не мне.
и не мне.
Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110
Предыдущая тема: IMS REAL/32 v7.8x ... 7.94 (Buy?)
Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.