Size: a a a

Kubernetes — русскоговорящее сообщество

2020 June 17

AD

Artem Dwski in Kubernetes — русскоговорящее сообщество
Sergey
Подскажите )))) правильно ли не использовать лайвнеспробы ))) пока я только вижу что они реально добавляют много геммороя )
зависит от ситуации. Лайвнесс пробы - большой гемор если надо поднять приложение в sts, которое "живо" только если собралось в кластер (увидело и сконнектилось с остальными мемберами)
источник

S

Sergey in Kubernetes — русскоговорящее сообщество
Кароч целесообразно ли вообще увеличивать кол-во проверок лайвнес проб ? или лучше от них отказаться . ведь нет ничего лучше если приложение само упало и его процесс убился и под рестартанулся
источник

S

Sergey in Kubernetes — русскоговорящее сообщество
Ну конечно в идеале так не всегда бывает )))
источник

AD

Artem Dwski in Kubernetes — русскоговорящее сообщество
Sergey
Ну конечно в идеале так не всегда бывает )))
как правило - да, целесообрзно. Исключения правило не меняют
источник

S

Sergey in Kubernetes — русскоговорящее сообщество
Оки, спасибо за совет )
источник

S

Sergey in Kubernetes — русскоговорящее сообщество
У меня просто есть тяжелый высоконагруженный микросервис )) который стартует то только 35 сек :D
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Sergei Mikhaltsov
салам пополам, я впрс прнс. У меня ща перед кубиком стоит хапрокси, запросы раскидвает по нодам, в такой схеме переодически возникает лишний хоп, когда запрос попадает на ноду, где сервиса нет. Вопрос, чем можно заменить хапрокси, шоп он ска мог читать апишку кубика и понимать на какой из нод есть сервис?
ingress controller'ом
источник

S

Salem in Kubernetes — русскоговорящее сообщество
"микро"
источник

S

Sergey in Kubernetes — русскоговорящее сообщество
)))) ага
источник

SM

Sergei Mikhaltsov in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
ingress controller'ом
я или дурак, или не пойму как мне тут ингресс поможет
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Sergei Mikhaltsov
я или дурак, или не пойму как мне тут ингресс поможет
ты сказал что у тебя haproxy на все ноды направляет трафик, и если на какой-то ноде нет сервиса, то происходит лишний хоп. Таким образом я сделал вывод, что ты проксируешь запросы на ingress controller, который полуает трафик от haproxy через nodePort. В этой схеме можно убрать haproxy, убрать nodePort, повесить ingerss controller слушать внешний интерфейс напрямую (hostNetwork: true) и получать трафик сразу на ingress controller, таким образом лишнего хопа не будет
источник

SM

Sergei Mikhaltsov in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
ты сказал что у тебя haproxy на все ноды направляет трафик, и если на какой-то ноде нет сервиса, то происходит лишний хоп. Таким образом я сделал вывод, что ты проксируешь запросы на ingress controller, который полуает трафик от haproxy через nodePort. В этой схеме можно убрать haproxy, убрать nodePort, повесить ingerss controller слушать внешний интерфейс напрямую (hostNetwork: true) и получать трафик сразу на ingress controller, таким образом лишнего хопа не будет
понял, да. подумаемс
источник

SM

Sergei Mikhaltsov in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
ты сказал что у тебя haproxy на все ноды направляет трафик, и если на какой-то ноде нет сервиса, то происходит лишний хоп. Таким образом я сделал вывод, что ты проксируешь запросы на ingress controller, который полуает трафик от haproxy через nodePort. В этой схеме можно убрать haproxy, убрать nodePort, повесить ingerss controller слушать внешний интерфейс напрямую (hostNetwork: true) и получать трафик сразу на ingress controller, таким образом лишнего хопа не будет
смотрю доку по траефику, и чет походу могу сделать внешний ингресс, вместо хапрокси :D
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Sergei Mikhaltsov
смотрю доку по траефику, и чет походу могу сделать внешний ингресс, вместо хапрокси :D
это скорее всего надо смотреть доку по подам в кубе (hostNetwork: true). Без разницы какой там ingress controller
источник

SM

Sergei Mikhaltsov in Kubernetes — русскоговорящее сообщество
окай, спасибо
источник

M

Max in Kubernetes — русскоговорящее сообщество
Добрый день. У меня есть набольшой кластер куба. Живет он в kvm по верх ceph(ssd only, replica3, min size 1). судя по доке https://etcd.io/docs/v3.3.12/op-guide/hardware/ ему должно хватать 25 мегабайт в секунду Disk bandwidth. Пишется на диск довольно шустро
dd if=/dev/zero of=onetimetestfile  bs=64k count=16k conv=fdatasync; rm onetimetestfile
16384+0 records in
16384+0 records out
1073741824 bytes (1.1 GB) copied, 6.5069 s, 165 MB/s
но при этом постоянно флапает etcdHighCommitDurations. кластер поднят кубспреем, три мастера + 4 ноды. Живет пару приложений. Подскажите куда смотреть. Спасибо
источник

VR

Vadim Rutkovsky in Kubernetes — русскоговорящее сообщество
источник

VR

Vadim Rutkovsky in Kubernetes — русскоговорящее сообщество
Max
Добрый день. У меня есть набольшой кластер куба. Живет он в kvm по верх ceph(ssd only, replica3, min size 1). судя по доке https://etcd.io/docs/v3.3.12/op-guide/hardware/ ему должно хватать 25 мегабайт в секунду Disk bandwidth. Пишется на диск довольно шустро
dd if=/dev/zero of=onetimetestfile  bs=64k count=16k conv=fdatasync; rm onetimetestfile
16384+0 records in
16384+0 records out
1073741824 bytes (1.1 GB) copied, 6.5069 s, 165 MB/s
но при этом постоянно флапает etcdHighCommitDurations. кластер поднят кубспреем, три мастера + 4 ноды. Живет пару приложений. Подскажите куда смотреть. Спасибо
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
на сайте куба поменялся дизайн страниц с документацией.
Сразу и не понял ))) подумал, что на какой-то блог куба попал.

красота катастрафическая. поубывав бы
источник

M

Max in Kubernetes — русскоговорящее сообщество
я правльно понимаю что результат достаточный
fsync/fdatasync/sync_file_range:
   sync (msec): min=2, max=1287, avg=13.51, stdev=29.45
   sync percentiles (msec):
    |  1.00th=[    4],  5.00th=[    4], 10.00th=[    4], 20.00th=[    5],
    | 30.00th=[    6], 40.00th=[    8], 50.00th=[   11], 60.00th=[   12],
    | 70.00th=[   14], 80.00th=[   16], 90.00th=[   20], 95.00th=[   28],
    | 99.00th=[   93], 99.50th=[  199], 99.90th=[  435], 99.95th=[  498],
    | 99.99th=[  600]
600 usec < 10 ms
источник