Size: a a a

Kubernetes — русскоговорящее сообщество

2016 August 25

NK

ID:57684913 in Kubernetes — русскоговорящее сообщество
странно что нет дружественной группы @ansible_ru : по-моему дискриминация по признаку дружественности
источник

AO

Alexander Ovchinnikov 🦁 in Kubernetes — русскоговорящее сообщество
жаль, что saltstack_ru
источник

AO

Alexander Ovchinnikov 🦁 in Kubernetes — русскоговорящее сообщество
нет
источник

AO

Alexander Ovchinnikov 🦁 in Kubernetes — русскоговорящее сообщество
Timur
Когда-нибудь ты захочешь в кластере из сотен машин поменять пару строчек в парочке systemd юнитов
в Rkt есть pod manifest
источник

AO

Alexander Ovchinnikov 🦁 in Kubernetes — русскоговорящее сообщество
всего лишь нужно положить его на Ceph, как я понимаю
источник

AO

Alexander Ovchinnikov 🦁 in Kubernetes — русскоговорящее сообщество
ну и тогда он будет общим для всего кластера
источник

AO

Alexander Ovchinnikov 🦁 in Kubernetes — русскоговорящее сообщество
и, разумеется, Ceph должен будет подключаться к серверу раньше, чем будут стартаповать эти Rkt контейнеры
источник

NK

ID:57684913 in Kubernetes — русскоговорящее сообщество
во, а я по сабжу еще спрошу - не факт что ответят, но может кто увидит вопросы и захочет на какой-нибудь из них нааписать ответ, будет клево :)

в общем, пока играюсь - запустил пару кластеров на локальных машинах и в GKE, щас хочу стажинг переводить и смотреть как себя ведет, наверное документацию плохо пролистал но не нашел ответа или нашел только размытые на такие вопросы:

1) какие полезные юзкейсы у job
2) чем ingress лучше кастомного nginx
3) чем принципиально petset отличается от pod
4) как можно заюзать component statuses в своей инфраструктуре и полезно ли это вообще
5) что такое events и с чем их едят
6) по каким правилам будет действовать несколько limitrages/resourcequotas в одном неймспейсе
7) возможноые юзкейсы serviceaccounts в продакшн-ркди кластерах
источник

NK

ID:57684913 in Kubernetes — русскоговорящее сообщество
Ну скажите ченить ... )
источник

T

Timur in Kubernetes — русскоговорящее сообщество
я тоже жду :)
источник

T

Timur in Kubernetes — русскоговорящее сообщество
все ждут ))
источник

E

Etki in Kubernetes — русскоговорящее сообщество
> какие полезные юзкейсы у job
одноразовые калькуляции, например, у тебя кто-то в базе данных напортачил и тебе надо запустить скрипт, меняющий 0 на null
> чем ingress лучше кастомного nginx
главным образом переносом ответственности, но (насколько понял) он еще в альфе и это скорее проверка гипотезы чем то, чем уже стоит пользоваться
> чем принципиально petset отличается от pod
от replication controller/set, скорее. pet set может минимально конфигурировать окружение для себя и фиксирует названия подов
источник

E

Etki in Kubernetes — русскоговорящее сообщество
вот еще вопрос из министерства дурацких вопросов: я же не могу сделать port mapping внутри пода (сделать так, чтобы порт X пода соответствовал порту Y контейнера, -p aa:bb при обычном workflow докера), только открыть порт пода, соответствующий порту контейнера?
источник

DI

Denis Izmaylov in Kubernetes — русскоговорящее сообщество
Не пойму, что за проблема может быть - kube-dns висит в состоянии:
kube-dns-v18-wz37g                      2/3       CrashLoopBackOff   798        13d


При это describe говорит примерно следующее:
...
Events:
 FirstSeen  LastSeen  Count  From      SubobjectPath      Type    Reason    Message
 ---------  --------  -----  ----      -------------      --------  ------    -------
 1d    2m    760  {kubelet xx.xx.xx.xx}  spec.containers{kubedns}  Normal    Started    (events with common reason combined)
 1d    2m    769  {kubelet xx.xx.xx.xx}  spec.containers{kubedns}  Normal    Pulled    Container image "gcr.io/google_containers/kubedns-amd64:1.6" already present on machine
 1d    2m    760  {kubelet xx.xx.xx.xx}  spec.containers{kubedns}  Normal    Created    (events with common reason combined)
 1d    1m    760  {kubelet xx.xx.xx.xx}  spec.containers{kubedns}  Normal    Killing    (events with common reason combined)
 1d    1m    3076  {kubelet xx.xx.xx.xx}  spec.containers{kubedns}  Warning    Unhealthy  Readiness probe failed: Get http://yy.yy.yy.yy:8081/readiness: dial tcp yy.yy.yy.yy:8081: connection refused
 1d    1m    769  {kubelet xx.xx.xx.xx}  spec.containers{kubedns}  Warning    Unhealthy  Liveness probe failed: HTTP probe failed with statuscode: 503
 1d    5s    9393  {kubelet xx.xx.xx.xx}  spec.containers{kubedns}  Warning    BackOff    Back-off restarting failed docker container
 1d    5s    9371  {kubelet xx.xx.xx.xx}          Warning    FailedSync  Error syncing pod, skipping: failed to "StartContainer" for "kubedns" with CrashLoopBackOff: "Back-off 5m0s restarting failed container=kubedns pod=kube-dns-v18-wz37g_kube-system(552d0562-5fe1-11e6-a399-44a842348b74)"
источник

E

Etki in Kubernetes — русскоговорящее сообщество
посмотри в статусе последнее состояние, возможно, OOM почему-то случается
источник

E

Etki in Kubernetes — русскоговорящее сообщество
у меня так в свое время дэшборд упал
источник

MF

Maxim Filatov in Kubernetes — русскоговорящее сообщество
kubectl logs --namespace=kube-system kube-dns-v18-wz37g -c kubedns
показывает что-нибудь?
источник

DI

Denis Izmaylov in Kubernetes — русскоговорящее сообщество
5 сек
источник

DI

Denis Izmaylov in Kubernetes — русскоговорящее сообщество
Error from server: a container name must be specified for pod kube-dns-v18-wz37g, choose one of: [kubedns dnsmasq healthz]
источник

DI

Denis Izmaylov in Kubernetes — русскоговорящее сообщество
ого
источник