Size: a a a

KVM (PVE/oVirt etc)

2020 July 16

k

kvaps in KVM (PVE/oVirt etc)
ivdok
Бонд WLAN + LAN даже с NetworkManager адекватно не работает, я так скажу - ровно до ребута это работает, потом надо руками в nmcli теребить. Конфиги встроенные не спасают
да не суть, я пример конфигурации привёл, такие параметры как bond-master, bond-primary, bond-mode нужно указывать и для слейвов, иначе рискуешь получить неправильную конфигурацию или вообще дефолты
источник

k

kvaps in KVM (PVE/oVirt etc)
ivdok
Для PVE подходит такой конфиг:
auto lo
iface lo inet loopback

iface eno1 inet manual

iface eno2 inet manual

auto bond0
iface bond0 inet static
     slaves eno1 eno2
     address  192.168.1.2
     netmask  255.255.255.0
     bond_miimon 100
     bond_mode 802.3ad
     bond_xmit_hash_policy layer2+3

auto vmbr0
iface vmbr0 inet static
       address  10.10.10.2
       netmask  255.255.255.0
       gateway  10.10.10.1
       bridge_ports eno1
       bridge_stp off
       bridge_fd 0
оно работает но тоже не всегда, иногда может и отъебнуть по своему опыту знаю :)
источник

i

ivdok in KVM (PVE/oVirt etc)
kvaps
оно работает но тоже не всегда, иногда может и отъебнуть по своему опыту знаю :)
Это да. На OVS надо будет попробовать бондинг, как закупки доедут
источник

k

kvaps in KVM (PVE/oVirt etc)
kvaps
кто-нибудь netplan с systemd-networkd юзает?

После обновления на focal у меня некоторые интерфейсы поднимаются без IP-адреса, в логах systemd-networkd:
eno1: Could not drop address: Connection timed out
eno1: Could not drop route, ignoring: Connection timed out
eno1: Could not bring down interface: Connection timed out
eno1: Could not join netdev: Connection timed out
eno1: Failed
vmbr0: Could not set route: Connection timed out
vmbr0: Failed
bond0.2: Failed to wait for the interface to be initialized: Connection timed out
bond0.2: Failed
bond0: Could not bring up interface: Connection timed out
bond0: Could not set bridge interface: Connection timed out

Есть идеи куда копать?
В общем я хз, но кажись нашёл рабочий workaround
# cat /etc/systemd/system/systemd-networkd.service.d/10-workaround.conf
[Service]
ExecStartPost=/usr/sbin/netplan apply
источник
2020 July 17

AP

Andrew Plekhanoff in KVM (PVE/oVirt etc)
ivdok
Для PVE подходит такой конфиг:
auto lo
iface lo inet loopback

iface eno1 inet manual

iface eno2 inet manual

auto bond0
iface bond0 inet static
     slaves eno1 eno2
     address  192.168.1.2
     netmask  255.255.255.0
     bond_miimon 100
     bond_mode 802.3ad
     bond_xmit_hash_policy layer2+3

auto vmbr0
iface vmbr0 inet static
       address  10.10.10.2
       netmask  255.255.255.0
       gateway  10.10.10.1
       bridge_ports eno1
       bridge_stp off
       bridge_fd 0
Странный конфиг, bridge_ports eno1 - это как вообще, интерфейс из бонда пихаем в бридж, бонд тогда для красоты чтоли? (Тут должно быть bond0)
И второе: смысл ипешники вешать и на бонд и на бридж?
И ещё добавлю: manual с какой-то версии дебиана не обязателен, примерно с 9ки уже поправили стартуп-скрипт
Вот моя рабочая конфа, прокс 6.2, с другой стороны каталист:

auto lo
iface lo inet loopback

auto bond0
iface bond0 inet manual
bond-slaves enp5s0f0 enp5s0f1
bond-miimon 100
bond-mode 802.3ad

auto vmbr0
iface vmbr0 inet static
address
192.168.100.100/24
gateway
192.168.100.1
bridge-ports bond0
bridge-stp off
bridge-fd 0
bridge-maxwait 0
источник

k

kvaps in KVM (PVE/oVirt etc)
источник

i

ivdok in KVM (PVE/oVirt etc)
Теперь по крайней мере понятно, зачем версионирование i440fx и q35 нужно
источник

M

Metronome in KVM (PVE/oVirt etc)
https://pve.proxmox.com/pve-docs/api-viewer/
Точно сломалось? ((😔
источник

TF

Terry Filch in KVM (PVE/oVirt etc)
Metronome
https://pve.proxmox.com/pve-docs/api-viewer/
Точно сломалось? ((😔
а что должно быть?
источник

M

Metronome in KVM (PVE/oVirt etc)
Terry Filch
а что должно быть?
Ну не серая страница, а дока
источник

TF

Terry Filch in KVM (PVE/oVirt etc)
источник

TF

Terry Filch in KVM (PVE/oVirt etc)
Metronome
Ну не серая страница, а дока
а так то чистый страница
источник

M

Metronome in KVM (PVE/oVirt etc)
Ну сломали
источник

g

greydjin in KVM (PVE/oVirt etc)
источник

RG

Random Guy in KVM (PVE/oVirt etc)
Вопрос не совсем по теме. Есть pve, есть zfs raid 0 на нем. Хочу бэкапить данные с рабочей машины туда. Как это покрасивее сделать? Можно нарпямую через rsync, но точно есть решение получше
источник

TF

Terry Filch in KVM (PVE/oVirt etc)
+
источник

n

nanomechanic in KVM (PVE/oVirt etc)
интересно как там с бэкапами путем посылки инкрементальных снэпшотов zfs или ceph
источник

i

ivdok in KVM (PVE/oVirt etc)
nanomechanic
интересно как там с бэкапами путем посылки инкрементальных снэпшотов zfs или ceph
Разверни тест, расскажешь
источник

TF

Terry Filch in KVM (PVE/oVirt etc)
nanomechanic
интересно как там с бэкапами путем посылки инкрементальных снэпшотов zfs или ceph
бля
источник

TF

Terry Filch in KVM (PVE/oVirt etc)
ну на хабре же был обзор
источник