Ru-Board.club
← Вернуться в раздел «В помощь системному администратору»

» Citrix XenServer

Автор: beatlejuse
Дата сообщения: 28.10.2013 14:57
blinkoff
пробовал, безрезультатно.
разворачивание этого бэкапа падает в любом случае. сам бэкап переделывал несколько раз так что это не сбой при его создании.
не разворачивается только этот бэкап (машина RHEL 6.4 с разделами LVM). другие бэкапы разворачиваются нормально (винХР, 2003).
если при разворачивании из консоли дописать --force то метадата развернётся. ошибка возникает в момент начала копирования содержимого винта.
решил перелить это содержимое руками (точнее акронисом)
(ЗЫ: клонзила не хочет запускаться вообще. скачал 4 версии, перепробовал все моды)
метода такая:
лезем в /var/run/sr-mount/b04c99d2-3e60-1dcb-4a68-d015b10bc69b (идентификатор локалсторе)
видим там имеющиеся файлы дисков vhd. запоминаем содержимое. создаём новый диск. запоминаем его идентификатор. цепляем диск к машине (напомню, машина живая, но находится на первом хосте. её необходимо перенести на второй). грузим акронис с исощника. делаем клон диска со старого на новый. отцепляем. коннектимся к первому хосту из winscp, копируем файл диска на второй хост. там цепляем к машине.
итог - красная шапка не стартует. вероятно слетает загрузчик, но его восстановить тоже не удалось.
осталась последнняя идея - копировать исходный файл vhd
но тут возникли большие трудности с его идентификацией.
на хосте крутится 4 боевые машины. в указанной папке находится 12 файлов. какой откуда и откуда взялись лишние - непонятно. снапшотов нет
сейчас ищу команду для консоли, которая бы помогла идентифицировать привязку этих файлов, но подозреваю, что её нет.
также, при копировании в эту директорию нового файла (когда я залил его на второй хост) то в хранилище он находится без имени. т.е. имена хранятся отдельно. тоже неизвестно где. думаю, там, где хранятся имена и можно обнаружить какой файл какому диску соответствует.
может кто находил такое?
Автор: blinkoff
Дата сообщения: 28.10.2013 15:15
beatlejuse
Посмотрите не снепшоты ли это часом, если да, то сделайте слияние, потом бекап, потом восстановление...
Автор: beatlejuse
Дата сообщения: 28.10.2013 15:16
не снапшоты. забыл сразу написать, снапшотов нет.
Автор: blinkoff
Дата сообщения: 28.10.2013 15:20
xe vdi-list что выдает по проблемной машине?
Автор: beatlejuse
Дата сообщения: 28.10.2013 15:23
сделал сейчас интересное наблюдение.
решил разобраться с этими файлами исходя из размера.
удалил все неиспользуемые (погашеные) машинеы, которые есть в бэкапах.
осталось 4 машины и 8 файлов.
три большие - 30, 19 и 18 ГБ соответствуют размеру бэкапов боевых машин.
четвёртая (проблемная) машина в бэкапе весит 1Гб.
из оставшихся файлов - 6, 5, 1Гб; 60Мб и 70кб
переименовал файл весящий 60Мб - слетело имя у диска проблемной машины. дал её новое имя, примонтировал к машине, запустил - работает.
т.е. диск явно составной. переименовывать файл на 70кб боюсь т.к. вероятно слетит боевая машина.
Автор: blinkoff
Дата сообщения: 28.10.2013 15:24
beatlejuse
Надо попробовать все же сделать слияние через coalesce-leaf
Автор: beatlejuse
Дата сообщения: 28.10.2013 15:47

Цитата:
xe vdi-list

Спасибо! Это как раз то, что я искал!
В общем, ситуация печальная. диску каждой машины (а ко всем машинам подцеплено только по одному диску) соответствует по два файла.
боевые: 30Gb и 70kb, 19Gb и 6Gb, 18Gb и 5Gb.
По одному файлу из комплекта я угадал правильно.
Проблемная машина - 60Mb и 1Gb


Цитата:
слияние через coalesce-leaf

а что это такое и как его делать?
подозреваю, что это для объединения в один файл. тогда это было бы волшебно!



Добавлено:
судя по гуглу синтаксис различается для разных версий. у меня хен 6,2
Автор: blinkoff
Дата сообщения: 28.10.2013 15:53
xe host-call-plugin host-uuid=<host-UUID> plugin=coalesce-leaf fn=leaf-coalesce args:vm_uuid=<VM-UUID>
Должно написать не Success!, a "This VM no Coalesce Vdi", что то типа того...
Автор: beatlejuse
Дата сообщения: 28.10.2013 16:01
ещё я где-то натыкался на такую инфу, что при бэкапировании через
xe vm-export vm= filename=
происходит укаповка (архивирование) содержимого. из за этого в частности не разворачивается мой бэкап.
нужно дописать что-то для отключения упаковывания и тогда полученный бэкап развернётся без проблем.
не подскажете что надо дописать? и вообще соответствует ли эта инфа реальности? ))

Добавлено:
а host-UUID и VM-UUID это разные вещи?
по xe vm-list is-control-domain=false вылазит VM-UUID, насколько я понимаю
а host-UUID как посмотреть?
Автор: blinkoff
Дата сообщения: 28.10.2013 16:11
xe host-list
xe vm-list
Автор: beatlejuse
Дата сообщения: 28.10.2013 16:18
ага. сделал. все четыре машины написали - VM has no leaf-coalesceable VDIs

Добавлено:
по файлам изменений не произошло ни на байт ))
Автор: blinkoff
Дата сообщения: 28.10.2013 19:22
Попробуйте сделать экспорт с помощью Quadric Alike, а после развернуть его.
Автор: beatlejuse
Дата сообщения: 28.10.2013 19:41
пробовал эту софтину - не понравилась.
перекинул два файла через winscp на второй хост. они там нормально опознались как диск. подцепил его к машине, она завелась.
спасибо!
Автор: beatlejuse
Дата сообщения: 29.10.2013 08:15
сегодня не развернулся бэкап с вин7. вопрос по упаковке бэкапа (точнее её отмены) всё ещё актуален.
Автор: grad12341234
Дата сообщения: 31.10.2013 10:44
Сделал проброс usb контроллера на vm в xenserver 6.1
При старте пишет ошибку

Код: Internal error: xenopsd internal error: Xenctrl.Error 38: Function not implemented
Автор: Dasky
Дата сообщения: 31.10.2013 14:58
добрый...
господа, возник такой нубский вопрос...
раньше дело имел только в vmware esx(3.0)/esxi 4.0-5.1 и недавно довелось потестить 5.5, и видимо несколько разбаловался я на esxi, т.к. некоторые моменты в ксене меня удивляют/вводят в ступор...
например:
сейчас есть домашний мини-сервачек с 2мя дисками на 250ГБ и 2ТБ...
xenserver 6.2 поставил на 250ГБ и создал пару виртуалок (пока win xp и nas4free/freenas)...
не могу допереть, как прикрутить 2ТБ хард к етим виртуалкам?
ето первый вопрос...
второе - допустим захочу я увеличивать дисковое пространство, добавив еще несколько хардов по 2ТБ...
как мне потом добавить ети харды, чтоб их увидел nas4free/freenas?
пробрасывать в виртуалку фринаса и создавать там что-то в духе софтового рейда?
если харды пробрасывать, то в каком именно виде?
в мане по ксену есть несколько вариантов - как udev, как lvm и что-то еще было...
и еще пара вопросов меня беспокоят...
сейчас виртуалки лежат на 250ГБ харде и места более чем достаточно...
хочется часть места отвести под локальный ISO-репозиторий, в мане по ксену видел, что такое возможно...
но тут всплывает еще вопрос - допустим через некоторое время захочу я избавится от 250ГБ харда, заменив его на 2ТБ...возможно ли будет мигрировать с 250ки на 2ТБ хард, часть места отведя под виртуалки и исо, а остальное отдав софт-рейду фринаса?

прошу подсказать как вообще лучше реализовать подобное, либо есть еще какие-то варианты?
в vmware esxi как-то все попроще сделано...и харды беспроблемно пробрасываются/цепляются к нужным виртуалкам, и место под образы доступно из консоли управления...как-то юзабилити побольше...у ксена почему-то много чего делается только из консоли...имхо, конечно...

в общем, прошу помощи, если нужны какие-то уточнения, пожалуйста пишите...
спс...
Автор: alexwhitest
Дата сообщения: 01.11.2013 04:51
Dasky
Тоже мучился с этой, казало бы, банальной проблемой по подключению локальных хардов к виртуалкам.
http://habrahabr.ru/post/107683/
Ответ там. То есть выполняешь инструкции, в итоге нужный хард (sdb, sdc) видится Xen-ом в XenCenter, и можно его прикрутить к виртуальной машине через его оснастку, выбрав виртуалку - там закладка Storage, там кнопка "Attach Disk", и диски там должны быть видны.

А чтобы отдать диск Xen-у под репозиторий, есть такой метод:

Набрать lvm чтобы попасть в консоль lvm
в ней набрать
lvmdiskscan
чтобы определить какой диск не включен в группу
выйти из lvm
набрать pvcreate /dev/sdb (указав верное устройство)
затем
xe sr-create type=lvm content-type=user device-config:device=/dev/sdb name-label="disk-sdb"

После этого в управлении Xen в корне добавится новый репозиторий. Наверное, так можно добавить не целый диск, а один раздел (sdb1, например). Я не пробовал.

Собственно, удачи!
Автор: urodliv
Дата сообщения: 01.11.2013 09:05
Dasky
Моё почтение.
Вопросов вы накидали куда как много. Я бы на вашем месте сначала разобрался с базовыми понятиями ксена (готов помочь, но только поэтапно). Ибо без этого мы вам дадим несколько вариантов подключения дисков, проброса их в машины, но всё это будет не то.

P.S. Nas4Free под ксеном не лучшее решение. Если не "прикрутить" к нему xentools, то многие плюшки от такой виртуализации теряются.
Автор: blinkoff
Дата сообщения: 01.11.2013 09:41
urodliv

В случае с Nas4Free, вы правы, так как он построен на базе FreeBSD к нему нереально вообще установить XenTools, насколько мне известно. А если используется любой Linux с ядром 3 и выше, то XenTools устанавливать необязательно, так как в самом ядре есть поддержка Xen DomU. Как альтернативу можно использовать OpenFiler, но тут придется погеммороится с установкой XenTools, потому что используемое ядро 2.6 и основан он на базе rPath Linux. Кстати, может есть что то поновее и интереснее?

Dasky

Самый простой способ замены системного жесткого диска - сделать резервную копию сервера из XenCenter, переустановить XenServer на новый жесткий диск (15 минут) и восстановить его из резервной копии (5 минут). Если на старом диске находятся виртуалки - предварительно сделать их экспорт в .xva а после импорт на новый жесткий диск. Можно также прикрепить новый диск к существующему при помощи LVM увеличив при этом размер ФС, но я не сторонник таких методов...
Автор: urodliv
Дата сообщения: 01.11.2013 10:43

Цитата:
В случае с Nas4Free, вы правы, так как он построен на базе FreeBSD к нему нереально вообще установить XenTools, насколько мне известно.

Не совсем так, но если это делать, то nas4free "становится" обычной фряхой и пропадает основная её задумка. Тогда уж проще ставить freebsd с нуля и всё настраивать самому.
Автор: blinkoff
Дата сообщения: 01.11.2013 10:46
urodliv

Не знал, что поддержка появилась. Спасибо за информацию.
Автор: urodliv
Дата сообщения: 01.11.2013 11:05
И в качестве оффтопа.
Алексей Кузнецов в интервью (один из создателей сетевого стека Linux) сказал о xen`е следующее:

Цитата:
Xen - мертворожденный проект. Про это знают все, включая его автора. Существуют еще какие-то люди, которые уже совершили ошибку и вложили что-то в Xеn и теперь пытаются это отбить. Могу только сказать - нельзя на это ловиться. Если нужен именно такой тип виртуализации, смотрите в сторону ESX. Скупой заплатит дважды. Parallels Cloud Server и KVM. Parallels пока просто лучше. KVM - лучше архитектурно и, скорее всего, их ядра в конце концов сойдутся. Но я уверен, что PCS навсегда останется лучше RehHatных решений. Containers vs. virtual machines... просто не имеет смысла сравнивать. Это разные и по смыслу, и назначению подходы. Будут жить оба.

А пояснений своей позиции не дал.
Автор: omm
Дата сообщения: 02.11.2013 20:15
urodliv

Цитата:
Если нужен именно такой тип виртуализации, смотрите в сторону ESX. Скупой заплатит дважды. Parallels Cloud Server и KVM.

Есть реальные задачи, на которых вышеперечисленное работает совсем не айс или совсем не работает.
А вот на Xen - вполне.
Автор: blinkoff
Дата сообщения: 03.11.2013 05:53
До появления KVM - Xen был единственной качественной альтернативой VMware, ИМХО. Но есть хороший инженерный принцип: "Работает - не лезь". У многих проекты на Xen работают очень давно... Новые, возможно, действительно стоит начинать на чем то более продвинутом как в качестве сообщества так и программной реализации.
Автор: antonsacz
Дата сообщения: 07.11.2013 19:18
День добрый! Подскажите советом плиз.

Апгрейдим сервер, раньше был 2*4Core Xeon без HT, сейчас 2*6Core с HT.
Раньше стояла Free версия и было всё ок - на две виртуалки по 4 ядра и всё хорошо.
И ограничения винды на 4 сокета не перекрываются и процессоров на всё хватало.

Сейчас 2*6Core с HT это 24 vCPU, возникает вопрос как их распределить по ОС, если максимум на ту версию винды, что мы используем можно дать 4 сокета.

Я знаю, что есть процедура cores-per-socket + VCPUs-at-startup, но, насколько я понимаю во Free версии XenServer она не работает (проверил, увы).

С версии 6.2 XenServer стал открытым и теперь лицензируется Per Socket. Возникает вопрос, что же они лицензируют, если исходники открыли и что нужно покупать (какую версию), чтобы cores-per-socket + VCPUs-at-startup заработало.

Еще вопрос - в сервере планируем сделать следующую вещь: есть 2*146 SAS диски, есть 2*300 SAS 15K, есть 2*1000 SATA и 1*SATA Flash.

Планирую сделать так, что на Flash поставлю XenServer, SAS-ы попарно в RAID 1. На 146 - установлю операционки, а 300 SAS 15K подцеплю для баз SQL.

Так вот, для того чтобы это заработало БЫСТРО нужны ли будут какие-либо спец настройки и танцы с бубном?

И последний вопрос: в свете последнего сообщения, может ну его, этот XenServer и есть какие-нибудь альтернативы под решение для использования на одном сервере 2-3 виртуалок? Спасибо за ответы!
Автор: alexwhitest
Дата сообщения: 08.11.2013 03:06
antonsacz - точно такой же вопрос у меня был, тоже 2 проца по 6 ядер, 24 VCPU, винда больше 8 не видела. Но я справился, гуглением, кстати.
http://jay-tech.ru/xenserver-vcpus-as-cores
Читаешь, выполняешь всё по инструкции, и вуаля, всё работает, можно назначить больше 8 VCPU винде. В версии 6.2 это уже работает, бесплатно.

На счёт баз SQL - во-первых им нужно желательно как можно больше оперативы, а во-вторых через Xen это будет тормозить, под SQL лучше отдельную машину без виртуалок.

XenServer 6.2 во-первых бесплатный, во-вторых довольно гибкий при должном знании матчасти. Все, кого я знаю, либо платные, либо тугие.
Автор: antonsacz
Дата сообщения: 08.11.2013 10:53
alexwhitest - спасибо за ответ! Версия 6.2 насколько я понимаю бесплатная только в режиме Unlicensed, когда не доступны обновления. Хорошо ли это? Хотя, у нас год уже стоит в офисе XenServer 6.0 и я никогда не ставил на него обновлений, что не сказывалось на его устойчивости.

С дисками что пока делать - непонятно. Оставлять AS IS или нужен будет тюнинг.
Вчера делал "плюс минус километр" HD Tune 2.55 тест из гостевой ОС, которая установлена на SAS диски, там скорость чтения была почти такая же как на моем рабочем компе, где установлен 7200 SATA диск. Нормально ли это, или средство для измерения не подъходящее?
Автор: alexwhitest
Дата сообщения: 08.11.2013 12:08
antonsacz - передаю совет от старших товарищей, которые имели опыт высоконагруженных систем. Пока просто по тестам и без реальной рабочей нагрузки всё хорошо, но в "продакшене" можно будет вешаться. SQL всегда должна стоять на отдельной машине, если только там не на 3-5 пользователей БД висит.
Автор: antonsacz
Дата сообщения: 08.11.2013 13:27
alexwhitest - отдельная машина пока не вариант ( Я согласен и понимаю, что для SQL Server нужно реальное железо, но с руководством согласовано использование XenServer и закуплены железки под это решение.

И мне придётся из комбинации w2008r2 для www + w2008r2 для sql + centos для smtp выжимать максимум. Я почитал XenServer 6.1 storage perfomance guide и это меня опечалило. Смысл бумаги в том - вот вам 125 ручек, крутите сами и смотрите что у вас получится.
Автор: blinkoff
Дата сообщения: 12.11.2013 14:00
antonsacz

Насчет дисковой подсистемы, если так беспокоит производительность можете попробовать пробросить реальный диск в ВМ тыц или тыц и по-русски тут

Страницы: 123456789101112131415161718192021

Предыдущая тема: mDaemon + Proxy + (Обьясните принцип работы)


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.