AK
Size: a a a
AK
AK
AK
AK
i
i
S
module "r53_updater" {то есть сейчас сделано так, что переменная в модуле для доменов динамична
source = "../modules/r53"
domains = [
"iptc.dev.io",
"ipts.dev.io",
"pas.dev.io",
"paus.dev.io",
"pdc.dev.io",
"kube-dashboard.io",
"nats.dev.io"
]
hosted_zone = "ZH9"
#Nginx-rm ingress controller
elb = "ad02.elb.amazonaws.com"
}
terraform.workspace
но её нужно применять в формате bucket = "${terraform.workspace == "preprod" ? var.bucket_demo_preprod}"
(это как пример), не хочу добавлять в сам модуль лишние переменные и делать на каждую из них ветвление, можно это как-то иначе релизовать? скажем делать условие на этапе, когда я вношу в переменную домены в приведенном выше файле? а не строить ветвление на уровне аж самого модуля(i
-var-file
, не забыв переключится в нужный воркспейс, получится один манифест и по файлу переменных на окружениеS
-var-file
, не забыв переключится в нужный воркспейс, получится один манифест и по файлу переменных на окружениеi
S
S
-var-file
, не забыв переключится в нужный воркспейс, получится один манифест и по файлу переменных на окружениеi
S
S
i
S
terraform.workspace
таким образом, чтоб оно не ругалось когда у меня не тот воркспейс, а скипало и создавало ресурс для нужного воркспейса? resource "aws_route53_record" "r53_domains_dev" {
zone_id = var.hosted_zone_io
count = length(terraform.workspace == "dev" ? var.domains_dev : null)
name = element(terraform.workspace == "dev" ? var.domains_dev : null, count.index)
type = "A"
alias {
name = var.elb
zone_id = var.shared_zone
evaluate_target_health = false
}
}
получается когда в qa воркспейсе, то на этом этапе сразу отваливается весь процесс и ругается мол не верный воркспейс и не доходит до нужного ресурса с нужным воркспейсом( хочу просто обезопасить себя, от завтыка при выборе нужного воркспейса и применении изменений..AO
S
AO