Size: a a a

Kubernetes — русскоговорящее сообщество

2020 June 23

4

4c74356b41 in Kubernetes — русскоговорящее сообщество
а еще есть хелм3, внезапно
источник

АС

Антон Сенько... in Kubernetes — русскоговорящее сообщество
источник

АС

Антон Сенько... in Kubernetes — русскоговорящее сообщество
как после такого продолжать спокойно читать ваще
источник

АС

Антон Сенько... in Kubernetes — русскоговорящее сообщество
источник

Д

Даня in Kubernetes — русскоговорящее сообщество
Антон Сенько
как после такого продолжать спокойно читать ваще
Но в целом верно же
источник

Д

Даня in Kubernetes — русскоговорящее сообщество
Можно ставить targz, а можно пакеты
источник

ST

Sergey Trapeznikov in Kubernetes — русскоговорящее сообщество
источник

AP

Andrew P in Kubernetes — русскоговорящее сообщество
Доброе время суток всем!
Мы хотим использовать Github Actions чтобы деплоить в self-hosted K8s.
После некоторого исследования я понял что есть 3 варианта:
1. Открыть K8s API порт наружу (возможно ограничив его только для Ажуровских IP-шников, но это всё равно дофига)
2. Задеплоить один или несколько self-hosted github runners в кластер
- например, используя вот это https://github.com/SanderKnape/github-runner
3. Установить один или несколько self-hosted github runners на сервера внутри сети
А какие наиболее рекомендованные практики?
Я склоняюсь что номер 2 выглядит лучше всего, но возможно что есть вариант ещё лучше?
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Andrew P
Доброе время суток всем!
Мы хотим использовать Github Actions чтобы деплоить в self-hosted K8s.
После некоторого исследования я понял что есть 3 варианта:
1. Открыть K8s API порт наружу (возможно ограничив его только для Ажуровских IP-шников, но это всё равно дофига)
2. Задеплоить один или несколько self-hosted github runners в кластер
- например, используя вот это https://github.com/SanderKnape/github-runner
3. Установить один или несколько self-hosted github runners на сервера внутри сети
А какие наиболее рекомендованные практики?
Я склоняюсь что номер 2 выглядит лучше всего, но возможно что есть вариант ещё лучше?
Я тоже за 2, но только с Нетворк полиси и прочими ограничениями
источник

AP

Andrew P in Kubernetes — русскоговорящее сообщество
George Gaál
Я тоже за 2, но только с Нетворк полиси и прочими ограничениями
Network policy чтобы ограничить куда github runner pod может ходить и что делать?
источник

C

Coffee in Kubernetes — русскоговорящее сообщество
Ребят, что-то я немного в ступоре. Мне надо бы понять входящее количество реквестов для приложения. По-идеи, это надо смотреть в сторону можно ли на elb эт чекнуть. Да? Не?
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Coffee
Ребят, что-то я немного в ступоре. Мне надо бы понять входящее количество реквестов для приложения. По-идеи, это надо смотреть в сторону можно ли на elb эт чекнуть. Да? Не?
если трафик через ingress идёт, с помощью его метрик можно посмотреть. Если трафик внутри кластера через сервис, то желательно чтобы приложение само отдавало метрики
источник

Д

Даня in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
если трафик через ingress идёт, с помощью его метрик можно посмотреть. Если трафик внутри кластера через сервис, то желательно чтобы приложение само отдавало метрики
А где метрики ингреса глянуть?
источник

Д

Даня in Kubernetes — русскоговорящее сообщество
Хорошая ссылка, не знаю че эти двое порвались ниже
источник

Д

Даня in Kubernetes — русскоговорящее сообщество
Очень простая, но вопрос поднят
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Даня
А где метрики ингреса глянуть?
ingress контроллер их отдаёт в формате прома
источник

Д

Даня in Kubernetes — русскоговорящее сообщество
Ааа
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Даня
Очень простая, но вопрос поднят
на самом деле в доке helm2 про это было написано в getting started, и рекомендация настроить tls. Да и статьи на эту тему уже были давненько. Ну и логично, если у тебя приложуха в кластере с кластер админом, нельзя ее голой жопой выставлять
источник

C

Coffee in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
если трафик через ingress идёт, с помощью его метрик можно посмотреть. Если трафик внутри кластера через сервис, то желательно чтобы приложение само отдавало метрики
Угум, через сервис
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
если трафик через ingress идёт, с помощью его метрик можно посмотреть. Если трафик внутри кластера через сервис, то желательно чтобы приложение само отдавало метрики
либо тащить сервис мэш
источник