Size: a a a

Чат конференции HighLoad++

2021 March 25

P

Pavel in Чат конференции HighLoad++
Phil Delgyado
Какие облака, если финтех )
Какой финтех такие и облака=)
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Да мне не надо, я себе bff на котлине сделал, мне хватает )
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Pavel
Какой финтех такие и облака=)
Сложно в финтехе с чужими облаками. Мало кто готов на это.
источник

P

Pavel in Чат конференции HighLoad++
так от финтеха зависит. ну и свои k8s поднимают, такое дело
источник

P

Pavel in Чат конференции HighLoad++
Ну да я не эксперт.
источник

P

Pavel in Чат конференции HighLoad++
Я веду к тому, что KONG нормальный выбор и для 10k RPS нагрузки.
тут многое зависит от сложности логики внутри, от того на чем хостится. Как часто и кто именно будет логику менять
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Pavel
так от финтеха зависит. ну и свои k8s поднимают, такое дело
Ну, если свое железо, то его надо на пик рассчитывать, так что там 'не используется, значит бесплатно' не очень работает
источник

P

Pavel in Чат конференции HighLoad++
на Го я бы не стал делать, если есть требование максимального перфоманса, но много сложной и разной бизнесо-логики.

точно наговнякают
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Pavel
Я веду к тому, что KONG нормальный выбор и для 10k RPS нагрузки.
тут многое зависит от сложности логики внутри, от того на чем хостится. Как часто и кто именно будет логику менять
Я про то, что это не хайлоад. Так то да, нормальное решение для кучи кейсов.
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Pavel
на Го я бы не стал делать, если есть требование максимального перфоманса, но много сложной и разной бизнесо-логики.

точно наговнякают
На api gw или bff логика обычно простая. У меня просто jvm стек внутри проекта, мне проще на котлине, чем на гошечке
источник

P

Pavel in Чат конференции HighLoad++
Phil Delgyado
На api gw или bff логика обычно простая. У меня просто jvm стек внутри проекта, мне проще на котлине, чем на гошечке
it depends
источник

PD

Phil Delgyado in Чат конференции HighLoad++
У меня было бы много вопросов к 'сложной логике на api gw'. Место не очень подходящее для логики.
Там обычно просто обогащение и трансформация данных, да простая авторизация
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Даже сложную авторизацию лучше там не делать.
источник

PD

Phil Delgyado in Чат конференции HighLoad++
И то это уже скорее про bff, а не api gw
источник

P

Pavel in Чат конференции HighLoad++
все-же заисит от кейсов
источник

P

Pavel in Чат конференции HighLoad++
есть ентерпрайз, самый разный. Тот же МТС какой нить

и там есть как вполне себе приличная нагрузка. так и развесистый гейтвей
источник

P

Pavel in Чат конференции HighLoad++
с лимитерами, авторизацией, и прочим
источник

P

Pavel in Чат конференции HighLoad++
Можно вообще openresty взять без всяких KONG обвязок
источник

p

ppavel in Чат конференции HighLoad++
Pavel
Можно вообще openresty взять без всяких KONG обвязок
В моем опыте просадка rps составляла до х2 по сравнению с голым nginx. Но в том сценарии это было ок, сделали много воркеров, и ядер было 48
источник

P

Pavel in Чат конференции HighLoad++
ppavel
В моем опыте просадка rps составляла до х2 по сравнению с голым nginx. Но в том сценарии это было ок, сделали много воркеров, и ядер было 48
это ты nginx vs openresty или vs kong ?
источник