Size: a a a

2020 August 03

DI

Damir Ibragimov in Tarantool
не дает пока всл2 поставить
источник

DI

Damir Ibragimov in Tarantool
ожидайте говорит
источник

N

Nobody in Tarantool
Я качал отдельно апдейт и все стало не смотря на аналогичное сообщение
источник

DI

Damir Ibragimov in Tarantool
Nobody
Я качал отдельно апдейт и все стало не смотря на аналогичное сообщение
попробую, спасибо
источник
2020 August 04

D

Denis in Tarantool
Привет, вопрос по sharded-queue.
В ридми написано:
You may also set up tubes using cluster-wide config:
tubes:
    tube_1:
       temporary: true
       ttl: 60
    tube_2:
       driver: my_app.my_driver


Если я его применяю после старта кластера, через cartridge.config_patch_clusterwide, или загружая .yml через панель управления, то все срабатывает.
Но не получается сделать так чтобы кластер уже при первом старте нашел этот кусок конфига и применил для создания tubes. Или это неправильный подход?
источник

AK

Alexey Kuzin in Tarantool
Denis
Привет, вопрос по sharded-queue.
В ридми написано:
You may also set up tubes using cluster-wide config:
tubes:
    tube_1:
       temporary: true
       ttl: 60
    tube_2:
       driver: my_app.my_driver


Если я его применяю после старта кластера, через cartridge.config_patch_clusterwide, или загружая .yml через панель управления, то все срабатывает.
Но не получается сделать так чтобы кластер уже при первом старте нашел этот кусок конфига и применил для создания tubes. Или это неправильный подход?
Что значит не получается уже на первом старте? Вы ожидаете создания tubes до бутстрапа вишарда или после?
источник

D

Denis in Tarantool
После, но чтобы не надо было добавлять их отдельной командой.
Я надеялся что если раздел tubes добавить в instances.yml, то он оттуда попадет в  clusterwide config, откуда его возъмет sharded_queue и создаст что надо.
Но так не получилось, поэтому сейчас пытаюсь выяснить какой подход правильный.
источник

AK

Alexey Kuzin in Tarantool
Похоже, у нас есть какая-то путаница в документации. instances.yml — не то же самое, что  clusterwide config
источник

AK

Alexey Kuzin in Tarantool
Список опций, которые поддерживаются  в instances.yml, перечислен тут
источник

AK

Alexey Kuzin in Tarantool
clusterwide конфигурация по конвенции лежит в папке config/ внутри workdir
источник

AK

Alexey Kuzin in Tarantool
Там может быть что угодно, касающееся настройки ролей. Описаны эти конфиги тут
источник

AK

Alexey Kuzin in Tarantool
@lenkis мы можем описать как-то по-понятнее эту часть?
источник

A

Andrey in Tarantool
повторно с той же проблемой вернулся
подскажите, как починить или хотя бы отдебажить - 2 сервера по 9 инстансов приложения на каждом, потихоньку отваливается репликация между инстансами, сначала 1-2, потом 10, потом 120 ошибок (120 проблемных пар).. и бонусом периодически segmentation fault.
centos 7, tarantool 2.3.2 / 2.3.3-0-g5be85a3 - тот же результат, сеть между серверами переключали (2 разных интерфейса)

примерно так получается - полный индекс, рестарт приложения на обоих инстансах, нагрузки на чтение и запись вообще нет - все работает сутки без проблем
включаем запись - примерно 10 запросов с суммарными 4500 записями на upsert в 3х "таблицах" (в среднем 4 инта в записи)

через 10 секунд на сервере, где все реплики (мастер 10.1.1.3:3311)
node2_1[22623]: main/222/applier/admin@10.1.1.3:3316 coio.cc:379 !> SystemError unexpected EOF when reading from socket, called on fd 34, aka 10.1.1.2:35106, peer of 10.1.1.3:
node2_1[22623]: main/222/applier/admin@10.1.1.3:3316 I> can't read row
node2_4[22635]: main/215/applier/admin@10.1.1.3:3317 xrow.c:215 E> ER_INVALID_MSGPACK: Invalid MsgPack - packet body
node2_4[22635]: main/215/applier/admin@10.1.1.3:3317 I> can't read row
node2_4[22635]: main/214/applier/admin@10.1.1.3:3318 I> will retry every 1.00 second
node2_4[22635]: main/214/applier/admin@10.1.1.3:3318 xrow.c:1092 E> ER_SYSTEM: timed out
node2_4[22635]: main/214/applier/admin@10.1.1.3:3318 I> can't read row
node2_9[22656]: main/218/applier/admin@10.1.1.3:3317 I> will retry every 1.00 second
node2_9[22656]: main/218/applier/admin@10.1.1.3:3317 xrow.c:1092 E> ER_SYSTEM: timed out
node2_9[22656]: main/218/applier/admin@10.1.1.3:3317 I> can't read row
node2_6[22643]: main/215/applier/admin@10.1.1.3:3311 I> will retry every 1.00 second
node2_6[22643]: main/215/applier/admin@10.1.1.3:3311 xrow.c:1092 E> ER_SYSTEM: timed out
node2_6[22643]: main/215/applier/admin@10.1.1.3:3311 I> can't read row
node2_7[22647]: main/215/applier/admin@10.1.1.3:3312 xrow.c:140 E> ER_INVALID_MSGPACK: Invalid MsgPack - packet header
node2_7[22647]: main/215/applier/admin@10.1.1.3:3312 I> can't read row
node2_9[22656]: main/234/applier/admin@10.1.1.3:3314 I> will retry every 1.00 second
node2_9[22656]: main/234/applier/admin@10.1.1.3:3314 xrow.c:1092 E> ER_SYSTEM: timed out

как понять, что с ним происходит вообще?
источник

DI

Damir Ibragimov in Tarantool
расскажите пожалуйста, где почитать по встроенной роли metrics в картридже?
источник

DS

Dmitry Sharonov in Tarantool
кроме сорцов и ридми?
источник

GM

Georgy Moiseev in Tarantool
источник

AK

Alexey Kuzin in Tarantool
Andrey
повторно с той же проблемой вернулся
подскажите, как починить или хотя бы отдебажить - 2 сервера по 9 инстансов приложения на каждом, потихоньку отваливается репликация между инстансами, сначала 1-2, потом 10, потом 120 ошибок (120 проблемных пар).. и бонусом периодически segmentation fault.
centos 7, tarantool 2.3.2 / 2.3.3-0-g5be85a3 - тот же результат, сеть между серверами переключали (2 разных интерфейса)

примерно так получается - полный индекс, рестарт приложения на обоих инстансах, нагрузки на чтение и запись вообще нет - все работает сутки без проблем
включаем запись - примерно 10 запросов с суммарными 4500 записями на upsert в 3х "таблицах" (в среднем 4 инта в записи)

через 10 секунд на сервере, где все реплики (мастер 10.1.1.3:3311)
node2_1[22623]: main/222/applier/admin@10.1.1.3:3316 coio.cc:379 !> SystemError unexpected EOF when reading from socket, called on fd 34, aka 10.1.1.2:35106, peer of 10.1.1.3:
node2_1[22623]: main/222/applier/admin@10.1.1.3:3316 I> can't read row
node2_4[22635]: main/215/applier/admin@10.1.1.3:3317 xrow.c:215 E> ER_INVALID_MSGPACK: Invalid MsgPack - packet body
node2_4[22635]: main/215/applier/admin@10.1.1.3:3317 I> can't read row
node2_4[22635]: main/214/applier/admin@10.1.1.3:3318 I> will retry every 1.00 second
node2_4[22635]: main/214/applier/admin@10.1.1.3:3318 xrow.c:1092 E> ER_SYSTEM: timed out
node2_4[22635]: main/214/applier/admin@10.1.1.3:3318 I> can't read row
node2_9[22656]: main/218/applier/admin@10.1.1.3:3317 I> will retry every 1.00 second
node2_9[22656]: main/218/applier/admin@10.1.1.3:3317 xrow.c:1092 E> ER_SYSTEM: timed out
node2_9[22656]: main/218/applier/admin@10.1.1.3:3317 I> can't read row
node2_6[22643]: main/215/applier/admin@10.1.1.3:3311 I> will retry every 1.00 second
node2_6[22643]: main/215/applier/admin@10.1.1.3:3311 xrow.c:1092 E> ER_SYSTEM: timed out
node2_6[22643]: main/215/applier/admin@10.1.1.3:3311 I> can't read row
node2_7[22647]: main/215/applier/admin@10.1.1.3:3312 xrow.c:140 E> ER_INVALID_MSGPACK: Invalid MsgPack - packet header
node2_7[22647]: main/215/applier/admin@10.1.1.3:3312 I> can't read row
node2_9[22656]: main/234/applier/admin@10.1.1.3:3314 I> will retry every 1.00 second
node2_9[22656]: main/234/applier/admin@10.1.1.3:3314 xrow.c:1092 E> ER_SYSTEM: timed out

как понять, что с ним происходит вообще?
винил?
источник

AK

Alexey Kuzin in Tarantool
предлагаю вам обновиться, в 2.5 пофиксили апсерты в виниле
источник

A

Andrey in Tarantool
Alexey Kuzin
винил?
memtx
источник

DI

Damir Ibragimov in Tarantool
Dmitry Sharonov
кроме сорцов и ридми?
нашел гитхаб только что
источник