Size: a a a

OpenShift - русскоязычное сообщество

2021 March 13

A

Alex in OpenShift - русскоязычное сообщество
на русском вряд ли, гугл транслейт в помощь
https://docs.openshift.com/container-platform/4.5/security/certificates/replacing-default-ingress-certificate.html
https://docs.openshift.com/container-platform/4.5/security/certificates/api-server.html
где брать — заказывать, первая ссылка с гугла
https://www.reg.ru/ssl-certificate/
или let's encrypt
источник

ЙШ

Йосеф Шлихман... in OpenShift - русскоязычное сообщество
Спасибо, добрый человек👍
источник

RT

Roman Trawin in OpenShift - русскоязычное сообщество
Всем привет. На свежустановленном кластере (3 мастера + 3 воркера) не стартанула консоль, в логах пода консоли такое:
auth: error contacting auth provider (retrying in 10s): request to OAuth issuer endpoint 

смотрю поды роутера в неймспейсе openshift-ingress расположились на воркер нодах. Если в nodeSelector деплоймента заменить node-role.kubernetes.io/worker на node-role.kubernetes.io/master, то поды пересоздаются также на воркерах. Если в CRD ingresscontrollers.operator.openshift.io поменять в описании
                properties:
                 nodeSelector:
                   description: "nodeSelector is the node selector applied to ingress
                     controller deployments. \n If unset, the default is: \n   beta.kubernetes.io/os:
                     linux   node-role.kubernetes.io/worker: '' \n If set, the specified
                     selector is used and replaces the default."

node-role.kubernetes.io/worker -> node-role.kubernetes.io/master и удалить деплоймент, то новый деплоймент также создасться с подами на воркер нодах, CRD через некоторое время также создасться с описанием воркер ноды.

Как разместить роутеры только на мастер нодах?
источник

VR

Vadim Rutkovsky in OpenShift - русскоязычное сообщество
Roman Trawin
Всем привет. На свежустановленном кластере (3 мастера + 3 воркера) не стартанула консоль, в логах пода консоли такое:
auth: error contacting auth provider (retrying in 10s): request to OAuth issuer endpoint 

смотрю поды роутера в неймспейсе openshift-ingress расположились на воркер нодах. Если в nodeSelector деплоймента заменить node-role.kubernetes.io/worker на node-role.kubernetes.io/master, то поды пересоздаются также на воркерах. Если в CRD ingresscontrollers.operator.openshift.io поменять в описании
                properties:
                 nodeSelector:
                   description: "nodeSelector is the node selector applied to ingress
                     controller deployments. \n If unset, the default is: \n   beta.kubernetes.io/os:
                     linux   node-role.kubernetes.io/worker: '' \n If set, the specified
                     selector is used and replaces the default."

node-role.kubernetes.io/worker -> node-role.kubernetes.io/master и удалить деплоймент, то новый деплоймент также создасться с подами на воркер нодах, CRD через некоторое время также создасться с описанием воркер ноды.

Как разместить роутеры только на мастер нодах?
источник

VR

Vadim Rutkovsky in OpenShift - русскоязычное сообщество
не надо лезть в деплоймент, не ты его создавал же
источник

АФ

Александр Филимонов... in OpenShift - русскоязычное сообщество
Так вам нужно прописать tolleration для расположения на мастерах
источник

АФ

Александр Филимонов... in OpenShift - русскоязычное сообщество
Но управлять этим надо через crd оператора,а не лезть в деплоймент напрямую
источник

АФ

Александр Филимонов... in OpenShift - русскоязычное сообщество
По поводу ошибки посмотрите на статус оператора authentication
источник

RT

Roman Trawin in OpenShift - русскоязычное сообщество
спасибо, а tolerations для роутера где редактировать?
источник

VR

Vadim Rutkovsky in OpenShift - русскоязычное сообщество
Roman Trawin
спасибо, а tolerations для роутера где редактировать?
источник

СЗ

Сергей Заикин... in OpenShift - русскоязычное сообщество
Roman Trawin
спасибо, а tolerations для роутера где редактировать?
oc get ingresscontroller default -n openshift-ingress-operator -o yaml
примерно так:
spec:
 nodePlacement:
   nodeSelector:
     matchLabels:
       node-role.kubernetes.io/router: ""
   tolerations:
   - effect: NoSchedule
     key: node-role.kubernetes.io/master
     operator: Exists
 replicas: 3
источник

RT

Roman Trawin in OpenShift - русскоязычное сообщество
спасибо большое, помогло
источник

RT

Roman Trawin in OpenShift - русскоязычное сообщество
Сергей Заикин
oc get ingresscontroller default -n openshift-ingress-operator -o yaml
примерно так:
spec:
 nodePlacement:
   nodeSelector:
     matchLabels:
       node-role.kubernetes.io/router: ""
   tolerations:
   - effect: NoSchedule
     key: node-role.kubernetes.io/master
     operator: Exists
 replicas: 3
спасибо!
источник
2021 March 15

DM

Danila Malovichko in OpenShift - русскоязычное сообщество
Danila Malovichko
Привет знатокам.
Хочу сделать грязь на окд 3.11, а именно создать cronjob с kubectl на борту, чтобы рестартить деплоймент(течет память в апликухе).
Собственно вопрос: почему может не отрабатывать job c командой kubectl rollout restart deployment/<YOUR DEPLOYMENT NAME> (connection refused), при этом в дебаг режиме все работает?
uid пользователя один и тот же, sa вроде тоже один и тот же

apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
 name: deployment-restart
 namespace: <YOUR NAMESPACE>
rules:
 - apiGroups: ["apps", "extensions"]
   resources: ["deployments"]
   resourceNames: ["<YOUR DEPLOYMENT NAME>"]
   verbs: ["get", "patch", "list", "watch"]


apiVersion: batch/v1beta1
kind: CronJob
metadata:
 name: deployment-restart
 namespace: <YOUR NAMESPACE>
spec:
 concurrencyPolicy: Forbid
 schedule: '0 8 * * *'
 jobTemplate:
   spec:
     backoffLimit: 2
     activeDeadlineSeconds: 600
     template:
       spec:
         serviceAccountName: deployment-restart
         restartPolicy: Never
         containers:
           - name: kubectl
             image: bitnami/kubectl
             command:
               - 'kubectl'
               - 'rollout'
               - 'restart'
               - 'deployment/<YOUR DEPLOYMENT NAME>'
Если кому то интересно, чтобы это заработало, нужно всего то было добавить hostnetwork в cronjob ////
источник

СФ

Сергей Федорищенко... in OpenShift - русскоязычное сообщество
Всем привет. Может кто интересовался. есть openshift codeready. ОС винда. Как изменить каталог куда происходит распаковка. Домашний менять нельзя. если делаю сиволические ссылки то перестает подниматься кластер на этапе INFO Waiting for kube-apiserver availability... [takes around 2min]
источник

dm

dmi3 mis in OpenShift - русскоязычное сообщество
Сергей Федорищенко
Всем привет. Может кто интересовался. есть openshift codeready. ОС винда. Как изменить каталог куда происходит распаковка. Домашний менять нельзя. если делаю сиволические ссылки то перестает подниматься кластер на этапе INFO Waiting for kube-apiserver availability... [takes around 2min]
Я как то тоже пытался такое сделать. Нет он не умеет. Установщик crc.exe ставит файлы виртуалки только в домашнюю папку
источник

VR

Vadim Rutkovsky in OpenShift - русскоязычное сообщество
Сергей Федорищенко
Всем привет. Может кто интересовался. есть openshift codeready. ОС винда. Как изменить каталог куда происходит распаковка. Домашний менять нельзя. если делаю сиволические ссылки то перестает подниматься кластер на этапе INFO Waiting for kube-apiserver availability... [takes around 2min]
источник

СФ

Сергей Федорищенко... in OpenShift - русскоязычное сообщество
спасибо!
источник

dm

dmi3 mis in OpenShift - русскоязычное сообщество
Пытался что-то похожее делать, у меня потом виртуалка  не поднималась, но правда я пытался её переместить в монтированный в папку первого диска раздел второго диска
источник

dm

dmi3 mis in OpenShift - русскоязычное сообщество
И на Hyper-V. (Да я тогда был извращенцем)
источник