Size: a a a

2021 May 06

AZ

Anton Zadorozhniy in Data Engineers
Конечно, это глобальный тренд: маленьким клиентам проще переехать на облако, большие самостоятельны на столько что сами могут все держать
источник

AZ

Anton Zadorozhniy in Data Engineers
Snowflake, Databricks, Firebolt и друзья изначально не предлагают никаких он-премных опций, рынку это даже нравится
источник

AE

Alexey Evdokimov in Data Engineers
то есть считанные единицы крупных сервис-провайдеров.

чё делать всяким мелким конторкам и проектикам, окромя как переезжать в облако — а ничего. нет другого варианта для нас
источник

AE

Alexey Evdokimov in Data Engineers
пока был бесплатный хдп, могли на нём как-то локально жить. а всё, больше так не можем. у клаудеры цена для нас неподъёмная от слова "совсем"
источник

AE

Alexey Evdokimov in Data Engineers
а чтобы развернуть ваниль (и, вероятно, навсегда на этом деплое застрять), надо потратить время. ну и обслуживать самосборный онпремис в конторе, где 4 фултайм сотрудника, эт тупо некому
источник

AZ

Anton Zadorozhniy in Data Engineers
В доклаудные времена всякий финтек, адтек, производственные компании, контент провайдер, даже соцсеть я одну поднимал на ванили)
источник

AZ

Anton Zadorozhniy in Data Engineers
Точно не единицы
источник

AE

Alexey Evdokimov in Data Engineers
будь у меня хотя бы человек 10, я бы тоже поручил кому-нить онпрем поднять
источник

AE

Alexey Evdokimov in Data Engineers
а то вон на eu-west-2 частенько не бывает достаточно ec2 инстансов нужного нам размера, ждать приходится часов по 10 :/
источник

AZ

Anton Zadorozhniy in Data Engineers
то есть если предположить такую ситуацию:
1) маленькая компания, скажем все аналитическое ИТ держат 6 человек
2) данных и нагрузки столько что файлсервер/minio + standalone spark или postgresql или clickhouse уже никак нехватает, нужен HDFS + YARN для пайплайнов
3) на облако нельзя

кмк в таком случае от ванили компания только выиграет, можно будет за счет cutting edge фич, точечных оптимизаций и нестандартных настроек отжать из железа максимум
источник

K

KrivdaTheTriewe in Data Engineers
Там все очень криво
источник

K

KrivdaTheTriewe in Data Engineers
Прям совсем криво
источник

VS

Vladislav 👻 Shishkov... in Data Engineers
Я не спорю, но факт остается фактом
источник

AE

Alexey Evdokimov in Data Engineers
а если данных с четверть петабайта (и это блин всего за полгода навалило), вся алгоритмика уже оптимизирована вусмерть, подписки поставлены на автоматику, и образовался дичайший завал по мелким частным проектам, то чё делать?

людей набрать на саппорт мне не дают :/
источник

AZ

Anton Zadorozhniy in Data Engineers
а может быть такое что завал случился из-за оптимизации "вусмерть"?
источник

AE

Alexey Evdokimov in Data Engineers
не, просто количество. понабрали многовато заказов с сильно специфичными требованиями
источник

AE

Alexey Evdokimov in Data Engineers
вместо 1 карты по 1 набору параметров надо строить 250 карт по 50 параметрам
источник

AE

Alexey Evdokimov in Data Engineers
сам-то расчёт на полчаса, просто их х250 теперь таких расчётов блин :(
источник

AZ

Anton Zadorozhniy in Data Engineers
тогда это старый добрый scope creep, пусть раскошеливаются на обновление
источник

AE

Alexey Evdokimov in Data Engineers
паршиво то, что каждый расчёт — это деплой кластера в EMR. потому как каждый раз свой набор датасетов и подбор памяти/CPU, и невозможно сделать вменяемый перманентный под весь набор расчётов. ну и гонять всё время данные с s3 туда-сюда.

будь своё железо, загнал бы разворот в кубер с нужной нарезкой, а так большую часть времени ждём, пока оно развернётся, заберёт из s3, и так далее :(
источник