Size: a a a

OpenStack — русскоговорящее сообщество

2020 April 15

J

J in OpenStack — русскоговорящее сообщество
Dmitry Tantsur
[deploy]enable_ata_secure_erase=False тогда? :)
Слушай, а ironic то у меня 11.1.1.dev46
C rocky еще.

Эт агент свежий только)
источник

J

J in OpenStack — русскоговорящее сообщество
J
Слушай, а ironic то у меня 11.1.1.dev46
C rocky еще.

Эт агент свежий только)
Сам дурак, штош.
источник

J

J in OpenStack — русскоговорящее сообщество
Michael Silich
Те сервера откуда их вытаскивали даже доступа в сеть не имеют. Они свой кабель в ДЦ проложили. :)
Не иначе как чтоб уж точно злоумышленникам было удобнее трафик снимать с него)
источник

MS

Michael Silich in OpenStack — русскоговорящее сообщество
Через оптоволокно немного сложно не будет без прорыва кабеля. Ну хз. Как бы а каждом кастомере беспокоиться это дорога прямиком в бутыль.
источник

J

J in OpenStack — русскоговорящее сообщество
Michael Silich
Через оптоволокно немного сложно не будет без прорыва кабеля. Ну хз. Как бы а каждом кастомере беспокоиться это дорога прямиком в бутыль.
Но возможно)
Но да, бутыль то тут рядом и стоит.
источник

AM

Aleksey Myltsev in OpenStack — русскоговорящее сообщество
J
Но возможно)
Но да, бутыль то тут рядом и стоит.
у меня за месяц пол бутыля ушло 😔
источник

J

J in OpenStack — русскоговорящее сообщество
Aleksey Myltsev
у меня за месяц пол бутыля ушло 😔
Эт еще ничо, вроде)
Хотя смотря чо там за размер.
источник
2020 April 16

A

Andrey in OpenStack — русскоговорящее сообщество
народ, нид хэлп. создаю тачку через heat, дальше докидываю через него же вольюм, и либвирт очень странно отрабатывает, почему то детачит второй вольюм
2020-04-16 09:12:47.569+0000: 373538: info : qemuMonitorIOWrite:551 : QEMU_MONITOR_IO_WRITE: mon=0x7f738c014960 buf={"execute":"__com.redhat_drive_add","arguments":{"file":"rbd:pool_name/volume-XXXXXXXX:id=pool_name:auth_supported=cephx\\;none:mon_host=mon_ip1\\;mon_ip2\\;mon_ip3","file.password-secret":"virtio-disk1-secret0","format":"raw","id":"drive-virtio-disk1","serial":"XXXXXXXXX","cache":"none","discard":"unmap","throttling.iops-total":"300"},"id":"libvirt-25"} len=477 ret=477 errno=0
2020-04-16 09:12:47.611+0000: 373538: info : qemuMonitorJSONIOProcessLine:217 : QEMU_MONITOR_RECV_REPLY: mon=0x7f738c014960 reply={"return": {}, "id": "libvirt-25"}
2020-04-16 09:12:47.611+0000: 373570: info : qemuMonitorSend:1083 : QEMU_MONITOR_SEND_MSG: mon=0x7f738c014960 msg={"execute":"device_add","arguments":{"driver":"virtio-blk-pci","scsi":"off","bus":"pci.6","addr":"0x0","drive":"drive-virtio-disk1","id":"virtio-disk1","write-cache":"on"},"id":"libvirt-26"} fd=-1
2020-04-16 09:12:47.619+0000: 373538: info : qemuMonitorJSONIOProcessLine:217 : QEMU_MONITOR_RECV_REPLY: mon=0x7f738c014960 reply={"return": {}, "id": "libvirt-26"}
020-04-16 09:12:57.224+0000: 373538: info : qemuMonitorIOWrite:551 : QEMU_MONITOR_IO_WRITE: mon=0x7f738c014960 buf={"execute":"__com.redhat_drive_del","arguments":{"id":"drive-virtio-disk1"},"id":"libvirt-28"} len=96 ret=96 errno=0

в логах новы есть только действие по аттачу, не пойму откуда на детач прилетает команда. После хард ребута все работает норм оба вольюма подключены. релиз queens (kolla)
источник

AP

Anton Patsev in OpenStack — русскоговорящее сообщество
Подскажите, пожалуйста по вопросу:
https://qna.habr.com/q/752197
источник

SM

Stanislav Markman in OpenStack — русскоговорящее сообщество
Aleksey Myltsev
Господа подскажите, почему может быть такое со стороны nova-metadata?
Failed to get metadata for instance id:

сразу скажу что это возникает далеко не всегда , но иногда ВМ не может получить свои метаданные  с 1го раза, после 5-10 мин и ребут метаданные прилетают
бьюсь над такой же проблемой. Видимо проблема с cloud-init. как только сменил imge c Centos 7.6 на Centos 7.7 проблема исчезла.
источник

AM

Aleksey Myltsev in OpenStack — русскоговорящее сообщество
Stanislav Markman
бьюсь над такой же проблемой. Видимо проблема с cloud-init. как только сменил imge c Centos 7.6 на Centos 7.7 проблема исчезла.
у меня была проблема с включенным кешом на стороне neutron-metadata-agent. После его отключения проблема пропала
источник

SM

Stanislav Markman in OpenStack — русскоговорящее сообщество
Aleksey Myltsev
у меня была проблема с включенным кешом на стороне neutron-metadata-agent. После его отключения проблема пропала
а ты просто закоментил "memcache_servers" в metadata-agent.ini  и neutron.conf, или же какой другой параметер?
источник

AM

Aleksey Myltsev in OpenStack — русскоговорящее сообщество
Stanislav Markman
а ты просто закоментил "memcache_servers" в metadata-agent.ini  и neutron.conf, или же какой другой параметер?
[cache]
enabled = false
источник

AM

Aleksey Myltsev in OpenStack — русскоговорящее сообщество
но опять же тут вопрос, та же ошибка у тебя?
источник

AM

Aleksey Myltsev in OpenStack — русскоговорящее сообщество
метаданные вообще с ВМ доступны?
источник

SM

Stanislav Markman in OpenStack — русскоговорящее сообщество
Aleksey Myltsev
[cache]
enabled = false
#enabled = false , я так понимаю по дефолту он включен
источник

SM

Stanislav Markman in OpenStack — русскоговорящее сообщество
Aleksey Myltsev
но опять же тут вопрос, та же ошибка у тебя?
в логах вижу что комуникация с Метадатой начинается спустя 5 минут после того как агент стартанул на компюте
источник

SM

Stanislav Markman in OpenStack — русскоговорящее сообщество
и если перегрузит инстанс то все работает
источник

SM

Stanislav Markman in OpenStack — русскоговорящее сообщество
так же если флотинг подключать то будет сразу работать
источник

AM

Aleksey Myltsev in OpenStack — русскоговорящее сообщество
посмотри вывод консольных логов, у него получается сходить на 169.254 ?
источник