Ru-Board.club
← Вернуться в раздел «Другие ОС»

» VMware ESX Server и VMware Infrastructure

Автор: panvartan
Дата сообщения: 30.11.2007 14:36
Насколько я понял, в ESX есть встроенный файрвол в котором для управления достаточно открыть 902 and 903 порты. А вот что касается аунтификации пользователя esx - используется ли шифрование VI клиентом ?
Автор: Michigun
Дата сообщения: 30.11.2007 14:37

Цитата:
Сервер стоит на площадке провайдера, доступ к нему осуществляется посредством VI Client, соответственно ESX имеет публичный ip адрес, по которому и происходит управление сервером.

Ну смотри - на ESX стоит файрвол, который закрывает управляющий интерфейс. Для VI клиента нужны 902 и 903(по дефолту, 903 для консоли к ВМ). Там по дефолту почти все остальное вроде и прикрыто, но это можно посмотреть. Трафик от VI клиента шифруется.

Если через внешний интерфейс еще и ВМ в сеть ходят - то ESX их никак не прикрывает.

Сам смотри, наколько тебя это устраивает.
anr69
я сходил в vmware online library, поискал по слову raw , первую ссылку почитал и нашел

VMFS also supports raw device mapping (RDM). RDM provides a mechanism for a virtual machine to have direct access to a LUN on the physical storage subsystem (Fibre Channel or iSCSI only). RDM is useful for supporting two typical types of applications:
Автор: ffk31337
Дата сообщения: 30.11.2007 15:21
Michigun
Блин, самого периодически подводит непрочтение сообщений об ошибке
перечитал пост ffk31337, обратил внимание на
Цитата:Unable to contact a primary HA agent in cluster cluster in datacenter

вот это уже похоже на проблемы именно с сетью. А что именно - трудно сказать. Попробуйте, действительно, максимально простую конфигурацию. Проверьте разрешение имен.


Да блин фигня какая то, раньше то HA работал, блог у Вас хороший, читал раньше.
на циске по этим портам упростить нечего.
----------------------------------
interface GigabitEthernet0/2
!
interface GigabitEthernet0/3
!
interface GigabitEthernet0/4
!
interface GigabitEthernet0/5
-----------------------------------
А контроллер домена соответственно с DNS на одной из VM

Хосты По nslookup:

Server: servv.oktbrserv.local
Address: 192.168.0.200
Name: vmserv.oktbrserv.local
Address: 192.168.0.130


Server: servv.oktbrserv.local
Address: 192.168.0.200
Name: vmserv3.oktbrserv.local
Address: 192.168.0.131

По пингам соответственно тоже все хороше.

Кстати а выключеные VM в момент активации HA считаються под ресурсы?


Автор: Michigun
Дата сообщения: 30.11.2007 15:31

Цитата:
Кстати а выключеные VM в момент активации HA считаються под ресурсы?

нет.

с одного ESX пинги на другой по имени ходят? И в обратную сторону.

Упростите конфиг со стороны ESX - оставьте одну сетевушку.

Посмотрите логи
/opt/LGTOaam512/log/*
/opt/LGTOaam512/vmsupport/*
Автор: Michigun
Дата сообщения: 30.11.2007 20:49
panvartan

Цитата:
Сервер стоит на площадке провайдера, доступ к нему осуществляется посредством VI Client, соответственно ESX имеет публичный ip адрес, по которому и происходит управление сервером.

вот к твоему вопросу на глаза попалось - http://searchservervirtualization.techtarget.com/expert/KnowledgebaseAnswer/0,289625,sid94_gci1281022_tax303515,00.html

Автор: binagal
Дата сообщения: 01.12.2007 18:11
Michigun

Цитата:
Цитата:
Вот и хотелось бы знать - с какими "брендами" и "вендорами" лучше не связываться, потому что они гребут все под себя и их цель меня подсадить, а не продать мне качественную (совместимую) железяку.

Опять же ИМХО - если мы говорим о брендах(HP, IBM, Fujitsu-Siemens и т.п.), то их сервера(стораджи), явно указанные в списке совместимости на vmware.com - работают с VI3. Более того - саппортятся, если софт покупается честно.(кстати, по отзывам - с т.зрения саппорта VI3 лучше покупать не у вендоров, т.к. их саппорт esx'а для России так себе).

Прошу совета в выборе железа. Сейчас есть 8 серверов: HP DL385, остальные - Intel; возраст - 1-3 года.
Необходимо перейти на виртуальную инфраструктуру с учетом Microsoft Infrastructure Optimization.

На что переходить:
1. Обновить 4 сервера для поддержки аппаратной виртуализации + купить SAN
2. Продать все сервера и купить Blade от HP, IBM, FJS, ...
?
Что лучше, как правильней?
У кого Blade - как впечатления, как выбрали бренд?

Статья про блейды: http://servervirtualization.blogs.techtarget.com/2007/10/08/draft-scaling-up-or-scaling-out-revisted/

Цитата:
I hate blades in their current incarnation
Автор: anr69
Дата сообщения: 02.12.2007 08:36
Michigun

Цитата:
я сходил в vmware online library, поискал по слову raw , первую ссылку почитал и нашел

VMFS also supports raw device mapping (RDM). RDM provides a mechanism for a virtual machine to have direct access to a LUN on the physical storage subsystem (Fibre Channel or iSCSI only). RDM is useful for supporting two typical types of applications:


нет локальное SCSI оно точно позволяет
тот топик что вы привели касается сетевого дискового подключения

но меня смущая то что у меня Стартер ESX и в VC пункт подключения диска по SAN не подсвечен.
и возможно они и локальные из-за этого не дают подключить.


binagal

у HP щас есть блейд сервера с внутренней шаред стореджью
вот тока если есть SAN то накой она нада

по поводу что лучше ....
мне показалось что лучше купить HP DL5XX четырех процессорных по четыре ядра получив по 16 процессоров от сервера
и все это виртуализировать

чем накупить кучу блейд модулей

потому как платишь в ESX на СЕРВЕР и чем мощнее он тем дешевле стоимость виртуальной машины
Автор: Michigun
Дата сообщения: 02.12.2007 09:37

Цитата:
тот топик что вы привели касается сетевого дискового подключения



Цитата:
подскажите как к виртуальной машине на ESX 3(стартер) подключить физический сказевый диск?



Цитата:
RDM provides a mechanism for a virtual machine to have direct access to a LUN on the physical storage subsystem

Еще раз - чего вы хотите добиться???


Цитата:
у HP щас есть блейд сервера с внутренней шаред стореджью

Это как? Мне интересно просто.


Цитата:
потому как платишь в ESX на СЕРВЕР

Наглая ложь

Платишь в ESX за процессор(сокет). Так что в стоимости софта разница будет минимальна.

ИМХО, но это имхо не много стоит, ибо практического опыта сравнения эксплуатации на блейдах и на не блейдах у меня не много. Но так вот - разницы особо нет, мне кажется. Надо изучить специфику тех блейдов, с которыми предполагается работать, и из нее делать выводы устраивает или нет.

По, например, тепловыделению, потреблению и производительности сравнение десятка блейдов и пары больших 4 процессорных серверов я не знаю в чью пользу будет. Но это можно просто посмотреть.
У блейдов одна проблема кардинальная - хуже расширяемость, т.е. далеко не всегда можно сетевушку там еще воткнуть и т.п.
Если планируется несколько приложению продолжать использовать на физической машине - блейды, возможно, будут интереснее - т.к. большого сервака для этих приложений может быть много. А с блейдами у нас единое решение и под ВМ и под тяжелые приложения без виртуализации.
В общем, я вижу много влияющих факторов, но все они зависят от вашей конкретной инфраструктуры, задач. Думаю, грамотный интегратор с вами внятно все это сможет обсудить.
Автор: anr69
Дата сообщения: 02.12.2007 10:20
Michigun

Цитата:
у HP щас есть блейд сервера с внутренней шаред стореджью

Это как? Мне интересно просто.

наскока я понял просто в корпусе блейд стойки есть небольшой дисковый массив и его можна шарить между серверами по scsi



Цитата:
Цитата:
потому как платишь в ESX на СЕРВЕР

Наглая ложь


в конфигураторе HP на четырех сокетные сервера DL5xx цена ESX указана таже самая что и на дву сокетные DL3xx
я только это имел в виду

я понял что основное что блейд позволяет экономить это на возможности общего использования сетевых адаптеров и SAN

хотя цены там ужасные и разобраться что экономически более выгодно сложно
скорее всего выгода появляется когда речь идет о больше 10 серверов в блейде


Цитата:
Еще раз - чего вы хотите добиться???

на воркстайшене можно легко подключить к виртуальной машине ЦЕЛЫЙ SCSI HDD

вот пытаюсь на esx3 стартер сделать тоже самое
пока только запутался с этими RAW :-D

Автор: panvartan
Дата сообщения: 02.12.2007 11:02
Michigun огромное спасибо за содействие - по поводу безопасности VI кое что прояснилось.
При настройке ESX столкнулся со следующей проблемой. При начальной установке ESX прописывается ip, mask and dns service console. При этом можно выбрать один из двух имеющихся у меня адаптеров. Я выбираю, прописываю вручную айпи, хотя в сети работает Dhcp сервер. Захожу через клиент - смотрю настройки. Действительно в cervice console port имеет присвоенный мной адрес, но оба networks adapters имеют одинаковый ip, полученный автоматически и отличающийся от установленного мной вручную. Я так и не понял как поменять ip адрес networks adapters. Вижу, что можно поменять DNS, можно поменять ip адрес service console, но адрес физический адаптеров (те которые в меню networks adapters ) то как изменить? Пробывал поискать команды для консоли, ничего подходящего не нашел - там теже самые варианты, что и в VI клиенте.
Автор: Michigun
Дата сообщения: 02.12.2007 11:11

Цитата:
наскока я понял просто в корпусе блейд стойки есть небольшой дисковый массив и его можна шарить между серверами по scsi

из такого объяснения не ясно, что такая возможность может дать для ESX.


Цитата:
в конфигураторе HP на четырех сокетные сервера DL5xx цена ESX указана таже самая что и на дву сокетные DL3xx

VMware продает лицензии на сокеты. Может быть, у HP как то по другому, а может ошибка это.


Цитата:
я понял что основное что блейд позволяет экономить это на возможности общего использования сетевых адаптеров и SAN

Опять таки, не знаю как у HP. Я знаю как у Fujitsu-Siemens - там каждый блейд это сервер. Мать, 2 камня, оперативка. От 2 до 8 сетевушек, от 0 до 2 FC hba. Все это в самом сервере. А в шасии могут стоят коммутаторы, как Ethernet, так и FC - вот они как раз шарятся между всеми "лезвиями". Ну и плюс именно в шасси стоят БП, вентиляторы, управлялка всем этим.
Вобщем, блейды интересны примерно тем же, чем и виртуализация - консолидацией. У FSC шасси 7U, в нем до 10 2х процессорных серверов. Плюс коммутаторы. И эти 10 эффективнее используют БП и вентиляторы и сетевую инфраструктуру. Вкратце так. Я уверен, у других вендоров ситуация примерно такая же, с учетом того, что кто то позволяет не только серверные лезвия использовать, но и "хранилищные", "ввода вывода".


Цитата:
на воркстайшене можно легко подключить к виртуальной машине ЦЕЛЫЙ SCSI HDD

вот пытаюсь на esx3 стартер сделать тоже самое
пока только запутался с этими RAW :-D

Подключить целый LUN к ВМ - для ESX это называется как раз Raw Device Mapping, или RDM. Тот документ, который я приводил, посвящен как раз ему. В свойствах ВМ добавляете новый HDD, в мастере говорите когда будет выбор что использовать как диск- Use raw LUN. Вам покажут список всех LUN, которые подходят для такого использования. На них, во первых, не должно быть никаких разделов, а во вторых - то, что написано в том документе - они должны быть на FC или iSCSI сторадже.


Добавлено:
Я точно просто не помню - МОЖЕТ БЫТЬ, заработает RDM и на локальном диске. А может и нет.

Добавлено:

Цитата:
но оба networks adapters имеют одинаковый ip, полученный автоматически и отличающийся от установленного мной вручную. Я так и не понял как поменять ip адрес networks adapters. Вижу, что можно поменять DNS, можно поменять ip адрес service console, но адрес физический адаптеров (те которые в меню networks adapters ) то как изменить? Пробывал поискать команды для консоли, ничего подходящего не нашел - там теже самые варианты, что и в VI клиенте.

Где смотрите? Если во второй закладке в св-х vSwitch, строка вроде Network называется,
то там пишется подсети, пакеты из которых были пойманы на этом сетевом контроллере. Это - справочная инфа, отображается для того, чтобы админу было проще сориентироваться, куда скомутированна эта сетевушка.

Самое главное - под ESX у физических сетевушек НЕТ ни MAC, ни IP адреса!
Коммутаторы и клиенты видят только виртуальные сетевушки - сетевушки ВМ, ServiceConsole или vmkernel.
Автор: anr69
Дата сообщения: 02.12.2007 12:00
Michigun


Цитата:
Цитата:
наскока я понял просто в корпусе блейд стойки есть небольшой дисковый массив и его можна шарить между серверами по scsi

из такого объяснения не ясно, что такая возможность может дать для ESX.


Я вот это имел в виду
http://h18004.www1.hp.com/products/servers/storageworks/c-class/sb40c/index.html
насколько я понял этот массив будет доступен для любого из серверов
тем самым можно вазшарить хранилище виртуальных машин между esx серверами в блейде
но живьем такого зверя не пробовал
и про совместное использование блейд серверами одного FAC подключения только читал

на сколько я понял в блейде есть общая шина данных а не только управления и через нее организует совместное использование сетевых и fac адаптеров


Цитата:
Цитата:
в конфигураторе HP на четырех сокетные сервера DL5xx цена ESX указана таже самая что и на дву сокетные DL3xx

VMware продает лицензии на сокеты. Может быть, у HP как то по другому, а может ошибка это.


может и ошибка но у меня в лицензии написано максимум 4 CPU и насколько я понял это сокета а не ядер. А лицензирование HP потом всеравно на VMWARE перекидывает, так что разницы никакой. Но опятьже DL5xx я не лицензировал
у нас щас есть только DL380 c 8-ю ядрами

по поводу RAW

в ограничения по использованию написано
Not Available for Block Devices or Certain RAID Devices – RDM (in the current
implementation) uses a SCSI serial number to identify the mapped device. Because
block devices and some direct-attach RAID devices do not export serial numbers,
they can't be used with RDMs.

может в этом вся проблема
если так то все это странно почему в воркстейшене это допускать а на более функциональном ESX ограничить

радует конечно што хоть SAN подрубить можно

попутно вопрос эксплуатирует ли кто файловый сервер на ESX не важно какой хоть самбу хоть винду или нетварь главное чтобы с хорошей нагрузкой и большим количеством пользователей , ну хотябы больше сотни. (нагрузка на дисковую подсистему и многими потоками)
справляется ли с этм ESX? понятно чудес не бывает ... но можно ли пожертвовать потерей производительности в угоду виртуализации инфраструктуры?
Автор: panvartan
Дата сообщения: 02.12.2007 12:25

Цитата:
Самое главное - под ESX у физических сетевушек НЕТ ни MAC, ни IP адреса!

Теперь прояснилось, те получается, что service console это тоже своеобразная виртуальная гостевая система, который по умолчанию запускается на ESX и служит для управления. Получается что VI клиент - это интерфейс управления виртуальной машиной service console. Поэтому и файрвол service console прикрывает только себя и не распространяется на другие гостевые системы. Поэтому и при создании virtual machine network айпи не приписывается - он прописывается из гостевой системы. Неужели до такой степени "голое" железо ?
А если создается еще одна service console - это создается еще одна гостевая система или виртуальный сетевой адаптер? Интересно для чего?
И еще вопрос, DNS and routing относится в таком случае только к service console и не распространяется на другие гостевые системы?
Автор: anr69
Дата сообщения: 02.12.2007 12:43

Цитата:
Неужели до такой степени "голое" железо ?

вмварь делает виртуальный сетевой адаптер на виртуальной машине
и получается что гостевая совсем не знает что у вас за железо и в каком сетов окружении работает ESX. естественно настройки DNS и тд для каждой машины можно делать уникальными и никак не зависящими от настроек консоли


Цитата:
А если создается еще одна service console - это создается еще одна гостевая система или виртуальный сетевой адаптер? Интересно для чего?

это только для управления
допустим у вас есть изолированные подсети и необходимо управлять сервером

Автор: Michigun
Дата сообщения: 02.12.2007 13:27

Цитата:
еперь прояснилось, те получается, что service console это тоже своеобразная виртуальная гостевая система, который по умолчанию запускается на ESX и служит для управления

Не совсем так. SC - полноценный Linux, стоящий РЯДОМ с гипервизором(vmkernel). Но вот сеть, и именно сеть для SC такая же виртуальная, как для ВМ.


Цитата:
Неужели до такой степени "голое" железо ?

Ограниченная поддержка железа ESX обусловлена необходимостью драйверов для vmkernel.


Цитата:
А если создается еще одна service console - это создается еще одна гостевая система или виртуальный сетевой адаптер? Интересно для чего?

Невозможно создать "еще одну ServiceConsole". Вот для единственной добавить сетевушек(виртуальных само собой) - сколько угодно.


Цитата:
И еще вопрос, DNS and routing относится в таком случае только к service console и не распространяется на другие гостевые системы?

конечно.
anr69
по ссылке углядел только что это DAS, по всей видимости к одному и тому
же диску доступ с нескольких лезвий получить не удасться.


Цитата:
если так то все это странно почему в воркстейшене это допускать а на более функциональном ESX ограничить

скорее всего потому, что для ворксешна сделать такую штуку помогает винда, под которой он стоит.
Автор: ffk31337
Дата сообщения: 03.12.2007 08:22
Michigun
Цитата:Кстати а выключеные VM в момент активации HA считаються под ресурсы?

нет.

с одного ESX пинги на другой по имени ходят? И в обратную сторону.

Упростите конфиг со стороны ESX - оставьте одну сетевушку.

Посмотрите логи
/opt/LGTOaam512/log/*
/opt/LGTOaam512/vmsupport/*

Спасибо за участие, ситуация разрешилась - в свое время была добавлена вторая service console , да еще без статического ip - удалил HA поднялся.
Автор: LevT
Дата сообщения: 03.12.2007 10:21

Цитата:
в свое время была добавлена вторая service console ,


это как?
Автор: ffk31337
Дата сообщения: 03.12.2007 10:34
LevT
Как, как - клавишей ADD
Если серьезно, попозже побалуюсь с этим, в случае двух vswitch с своими железными картами может и имеет смысл для отказоустойчевости.
Автор: vecialfor
Дата сообщения: 03.12.2007 11:51
Народ, такой вопрос. Есть VMware сервер - к нему я нормально подключаюсь через VI client. Все виртуальные машины доступны, консоль управления виртуальными машинами тоже доступна, вижу изображение виртуальной машины, могу с ней работать. А вот пользователи с других компов получают изображение своей виртуальной машины не всегда, порой после перезагрузки VI client, подскажите с чем это может быть связано.

И еще такой вопрос. Читал документацию по VMware и наткнулся на следующее:


Network File System (NFS) is provided by rpc.nfsd and would normally be launched by an nfs script in /etc/rc.d. To start using NFS to mount directories on other ESX or Linux servers, we can use the following steps:
1. Change the ESX Server which is to be the NFS server, to use medium security (using the MUI is easiest for this).

2. Add an entry to the file /etc/exports on the NFS server by either using vi text editor (/vmimages *) or use the exportfs command

3. Check that the NFS client IP address or hostname is not excluded by the server file /etc/hosts.deny

4. It is up to you if you explicitly allow the NFS client by adding the NFS client to /etc/hosts.allow on the NFS server

5. Start the NFS server daemons
a. /etc/rc.d/init.d/service portmap start
b. /etc/rc.d/init.d/service nfslock start
c. /etc/rc.d/init.d/service nfs start

6. Start the NFS client daemons
a. /etc/rc.d/init.d/service netfs start
b. /etc/rc.d/init.d/service portmap start

7. Mount remote export directory (on the NFS server) from the NFS client with the command
a. mount –t nfs nfsserver:/export localdir/localmount

Если я правильно перевел фразу: To start using NFS to mount directories on other ESX or Linux servers, we can use the following steps - то можно монтировать NFS директории на других ESX и Linux серверах. То есть получается что ESX сервер может быть NFS-сервером??? Если да, то как это сделать? Заранее спасибо

Автор: mihas83
Дата сообщения: 03.12.2007 15:25
Ребят, поделитись пожалуйста ссылкой на русской FAQ для ознакомления с VMware, али сами поведайте каким образом правильно создавать образ для виртуальной операционной системы. Посмотрел в шапке, но FAQ на английском даже не знаю откуда начать штудировать. Да и чего тут говорить, кирилицу легче усвоить, чем вникать в басурманский. ))

Кстати, после установки VMware, обратил внимание на то, что система (WinXp) стала стартовать очень долго. Загружается рабочий стол с некоторыми треевыми программами, а затeм система усердно пытается что-то переварить. В это время ничего делать не дает, а отвисает только спустя 5 минут. Не сталкивались с такой проблемой? Может быть конфликт здесь между Касперским и VMware? После сноса VMware снова стал подыматься быстро и без фризов.
Автор: vecialfor
Дата сообщения: 03.12.2007 15:48
Люди такой вопрос. НАстроил вторую консоль на ESX сервере. Вывел ее в другую подсеть. И такая проблема. Когда работаю через вторую консоль, то периодически соединение теряется с сервером. А есть захожу через Putty на сервак под адресом новой консоли, то у меня Access denied, со второй е попытки получилось войти через Putty ничего при этом не меняя. С чем это может быть связано?

Добавлено:

Цитата:
поведайте каким образом правильно создавать образ для виртуальной операционной системы
- что именно тебя интересует то? Вроде все пошагово делается или какие то сложности возникают?
Автор: Michigun
Дата сообщения: 03.12.2007 20:22

Цитата:
Люди такой вопрос. НАстроил вторую консоль на ESX сервере. Вывел ее в другую подсеть. И такая проблема. Когда работаю через вторую консоль, то периодически соединение теряется с сервером. А есть захожу через Putty на сервак под адресом новой консоли, то у меня Access denied, со второй е попытки получилось войти через Putty ничего при этом не меняя. С чем это может быть связано?


Настаиваю, что НАстроил вторую консоль на ESX сервере uговрить неправильно.
Правильно - для понимания в первую очередь, говорить - создал очередной интерфейс для сервис консоли.

если ты в винде сделаешь два интерфейса, физически их скомутируешь по разному, а IP дашь из одной подсети - примерно так себя и винда поведет.

Так что имхо вопрос сетевикам.
Автор: wilddog
Дата сообщения: 04.12.2007 12:16
К одной сетевухе ESX подключен инет с одним ip адресом, соответсвенно этот ip заведен на виртуальной машине (прокси), можно ли сделать чтобы подключения на опреденный порты по данному ip перенапрявлялись на ESX Console, вообще это нужно для того чтобы можно было удаленно управлять esx-ом даже если прокси-виртуалка выключена или не принимает подключения
Автор: Michigun
Дата сообщения: 04.12.2007 13:03

Цитата:
чтобы подключения на опреденный порты по данному ip перенапрявлялись на ESX Console,

Да.


Цитата:
вообще это нужно для того чтобы можно было удаленно управлять esx-ом даже если прокси-виртуалка выключена или не принимает подключения

тогда нет. Перенаправление портов на прокси делается на раз. Но если прокси лежит - нет никакого перенаправления.
Автор: anr69
Дата сообщения: 04.12.2007 14:58
подскажите плиз

я использую лицензионный файл
после приема лицензии создается такой файл
/etc/vmware/vmware.lic
он нужен в системе или это для бэкапа ?

оно конечно можно его грохнуть и поглядеть
но тут такие умные люди сидят что грех такой возможностью не воспользоваться
Автор: vecialfor
Дата сообщения: 04.12.2007 15:01
Michigun
У меня такой вопрос. А можно ли для управления ESX server 3.0.0 использовать Victual Center 2.0.1, а не Virtual Center 2.0.0
Автор: anr69
Дата сообщения: 04.12.2007 15:03
еще в догонку каверзный вопрос
если лицензия в файле то мне кто-то может помешать поставить ее еще и на другой сервер
конечно совесть меня будет мучать всю оставшуюся жизнь
Автор: Michigun
Дата сообщения: 04.12.2007 16:22

Цитата:
А можно ли для управления ESX server 3.0.0 использовать Victual Center 2.0.1, а не Virtual Center 2.0.0

а смысл? Посмотри в release notes к версиям x.0.1, я не уточнял такие вещи.

anr69
на ESX файл lic удалять не стоит.

Что касается последнего - у тебя в принципе много вариантов -
просто крякнуть - в варезнике тема больше этой
зарегестрироваться для скачивания на vmware.com - тебе пришлют ключик на месяц.
и 12 раз в год регистрироваться, чем не вариант?
Автор: LevT
Дата сообщения: 04.12.2007 16:48
Michigun

ну видимо имеется в виду - купить лицензию на один сервак, а использовать ее на куче серверов. Получится в пределах одного датацентра? А в разных?

Если это в принципе возможно - тогда удивительно, что до сих пор нет в паблике таких файликов...
Автор: Michigun
Дата сообщения: 04.12.2007 16:58
все такие вопросы - в варезник.
и не мне.

Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110

Предыдущая тема: IMS REAL/32 v7.8x ... 7.94 (Buy?)


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.