П
В остальном все работает нормально. Сжатие на лету, thin provision, "бесплатные" снэпшоты, инкрементальная репликация... Все за что любим zfs
Size: a a a
П
D
detect-zeroes=on|unmap & discard-mode=unmap какой из данных вариантов оптимальнее всего для SATA/SSD на базе LUKSv1/ext4? Флаг discard не задействован.Aa
k
k
G
IH
📶Š
П
arc_summary показывает (можно просто в /proc/spl/kstat/zfs/arcstats посмотреть), например, что у вас кэшем занято 64GiBDB
arc_summary показывает (можно просто в /proc/spl/kstat/zfs/arcstats посмотреть), например, что у вас кэшем занято 64GiBIH
arc_summary показывает (можно просто в /proc/spl/kstat/zfs/arcstats посмотреть), например, что у вас кэшем занято 64GiBП
/sys/module/zfs/parameters/zfs_arc_max), значение которой по умолчанию 50% от всего RAM. Причем, для того чтобы все активное было в кэше, нужно зачастую не очень много памяти (хотя зависит от профиля использования и разношертности работающих ВМ, естественно). В обычной практике, логика занимать всю доступную память под кэш - очень правильная, так как "Unused memory is wasted memory", и zfs даже в Linux умеет аккуратно возвращать занятую в ARC (кэше) память по мере необходимости системе, но! профиль работы хоста гипервизора таков, что там нагрузка по памяти возрастает не "гладко", а скачкообразно, например, вы запускаете гостя с 32GiB RAM, а значит KVM пытается сразу замапить 32 ГБ в системе, что приведет к резкому уменьшению available памяти и возникает ситуация, по логике мэнеджера кэша ZFS, требующая срочного и агрессивного вытеснения всего кэша (мол, ужас кошмар, памяти свободной резко не стало, надо срочно возращать системе все что сможем).zfs_arc_max на нужную величину, предупреждая работу логики ZFS, а после возращать обратно параметр (там же еще есть KSM, который постепенно дедуплицирует занятую гостями память и постепенно отдает системе)П
used:out of memory, так как оно смотрит на количество доступной памяти (available), а память занятая ARC будет суммироваться в usedП
h
FD
П
П
k
h