Size: a a a

OpenStack — русскоговорящее сообщество

2019 November 15

n

ndaemonv in OpenStack — русскоговорящее сообщество
спасибо это интересно почитаю
источник

DP

Dmitry Polyakov in OpenStack — русскоговорящее сообщество
J
Тогда внимаельно изучи все процессоры во всех своих гипервизорах, найди самый бедный по возможностям, затем ставь host_model qemu64\kvm64 и добирай недостающие флаги экстра параметрами.

Если поступить по-другому с сильно разношерстным парком процессоров, то во время миграции с более навороченного на менее навороченный будешь получать ошибку.
только во время живой
источник

J

J in OpenStack — русскоговорящее сообщество
ndaemonv
да но как быть, в таком случае, если в определенный момент времени появляется еще один вычислитеольный ресурс, с процами отличными от остальных по покалению вообще например?
Гипервизоры с разными cpu группировать в host aggregate и задействовать соответствующий фильтр для планировщика.
источник

Е

Евгений in OpenStack — русскоговорящее сообщество
ndaemonv
Дмитрий я ж грю я искал универсальное решение у меня очень разношерстные процы
Самое универсальное решение на мой счет, поставить везде самый младший. Тем самым и миграция будет работать и универсальность по всем хостам
источник

n

ndaemonv in OpenStack — русскоговорящее сообщество
Евгений, а с производительностью как дела будут?
источник

J

J in OpenStack — русскоговорящее сообщество
ndaemonv
Евгений, а с производительностью как дела будут?
Протесть.
ЧУть ниже чем на самом младшем из твоих процессоров.
источник

J

J in OpenStack — русскоговорящее сообщество
Засчет более высокой тактовой частоты на "крутых" производительность будет лучше, конечно)
источник

Е

Евгений in OpenStack — русскоговорящее сообщество
Ну у тебя будет минимальный набор инструкций проца, производительность вроде не должна страдать (надо читать матчасть). Если же тебе нужны математические вычисления а значит набор инструкций, то как предлагал J разбить на агрегаты и выделить туда нужные ВМ, не думаю что их так много.
источник

n

ndaemonv in OpenStack — русскоговорящее сообщество
да протестирую кэшн
источник

n

ndaemonv in OpenStack — русскоговорящее сообщество
всем спасибо
источник

J

J in OpenStack — русскоговорящее сообщество
Евгений
Ну у тебя будет минимальный набор инструкций проца, производительность вроде не должна страдать (надо читать матчасть). Если же тебе нужны математические вычисления а значит набор инструкций, то как предлагал J разбить на агрегаты и выделить туда нужные ВМ, не думаю что их так много.
Не, наличие, например, avx довольно сильно влиять будет, мне кажется.
источник

Е

Евгений in OpenStack — русскоговорящее сообщество
Не думаю что есть такие, где этого нет.  Но опять же каковы требования, где критерии? Попросили универсальности, получили ответ, дальше анализ.
источник

Е

Евгений in OpenStack — русскоговорящее сообщество
Не получится поставить что-то одно и получить все сразу
источник

J

J in OpenStack — русскоговорящее сообщество
Евгений
Не думаю что есть такие, где этого нет.  Но опять же каковы требования, где критерии? Попросили универсальности, получили ответ, дальше анализ.
avx то разные бывают)
источник

MI

Mik I. in OpenStack — русскоговорящее сообщество
J
Гипервизоры с разными cpu группировать в host aggregate и задействовать соответствующий фильтр для планировщика.
+100500
источник

Е

Евгений in OpenStack — русскоговорящее сообщество
Не силен в этой теме настолько, но насколько мне известно все зависит от микроархитектуры, а её то мы и выбираем. А тут уже шашечки или ехать.
источник

НС

Никита Суворов in OpenStack — русскоговорящее сообщество
ndaemonv
реальное не обяхательно пусть никакого не будет лучше.
qemu вместо kvm включите, не будет ни проца не производительности 😄
источник

AM

Aleksey Myltsev in OpenStack — русскоговорящее сообщество
Никита Суворов
qemu вместо kvm включите, не будет ни проца не производительности 😄
злой ты
источник

n

ndaemonv in OpenStack — русскоговорящее сообщество
Никита, включал 😭
источник

n

ndaemonv in OpenStack — русскоговорящее сообщество
убил все нахер поставил вируталбокс, радуюсь
источник