Нужно смотреть логи этого инстанса, как к такому пришло. Также имеет смысл понизить replication_connect_quorum до `2`х. Я смогу более подробно помочь только вечером.
Нужно смотреть логи этого инстанса, как к такому пришло. Также имеет смысл понизить replication_connect_quorum до `2`х. Я смогу более подробно помочь только вечером.
понятно. спасибо. предполгаю что мог быть недостаточно большой интервал между рестартами.
а вернуть его в рабочее состояние используя как мастер только один из серверов как можно?
вернуть в рабочее: удалить его xlog'и и запустить заново если не захочет/не сможет, взять его uuid, прописать в конфиг как instance_uuid = ... и перезапустить, удалив вообще всё от него (и снапы и икслоги)
вернуть в рабочее: удалить его xlog'и и запустить заново если не захочет/не сможет, взять его uuid, прописать в конфиг как instance_uuid = ... и перезапустить, удалив вообще всё от него (и снапы и икслоги)
а если я хочу полностью перезапустить кластер использую данные то на двух инстансах я удаяю вообще все, на одном истансе удаляю xlog и перезапускаю?
порядка недели: на операторе висит большой pr, в том числе и с этой фиксой, за эту неделю я его хочу поревьювить и помержить, если ни с какими трудностями не столкнусь
Добрый день! Скажите, есть апдейты по исправлению этой баги? Спасибо!