Size: a a a

AWS Minsk Community

2020 January 31

RV

Roman V . in AWS Minsk Community
пока вроде бы всем хватает)
источник

HA

Hleb Albau in AWS Minsk Community
кто подскажет как правильно решить задачку.
есть 3 региона, в каждом есть лямбда, которая делает Х, нужно как-то из лямбды сохранять запись размером ~100b состоящую из Y полей, и в последствии иметь возможность делать разные аналитическе квери по этим данным. данные не критичные, по пути можно немного терять)
источник

HA

Hleb Albau in AWS Minsk Community
данных на около 400гб в год, немного совсем)
источник

RV

Roman V . in AWS Minsk Community
Сохрани в любой подходящий движок базы
источник

RV

Roman V . in AWS Minsk Community
Как часто запросы надо делать?
источник

HA

Hleb Albau in AWS Minsk Community
запросы к данным редко, раз в месяц
источник

RV

Roman V . in AWS Minsk Community
Athena + S3
источник

HA

Hleb Albau in AWS Minsk Community
Roman V .
Сохрани в любой подходящий движок базы
тут проблема 3 региона, + добавка на латенси на запись, если в другой регион записывать
источник

MS

Mikalai Salauyou in AWS Minsk Community
s3 и CloudFront
источник

HA

Hleb Albau in AWS Minsk Community
Roman V .
Athena + S3
начал копать в эту сторону, но тогда получается не понятно как из лямбды в с3 писать правильно. делать в каждый регион свой стор, с синком в один общий. Записывать по 1 объекту за раз?
есть опосения, что так не прокатит. Будте что-то типо такого https://stackoverflow.com/questions/50786058/aws-glue-crawler-fails-with-11-million-files-on-s3
источник

RV

Roman V . in AWS Minsk Community
Ну так пиши в бакет другого региона
источник

HA

Hleb Albau in AWS Minsk Community
так вопрос в том как в с3 положить, чтобы не было много мелких объектов, чтобы кравлер не захлебывался
источник

RV

Roman V . in AWS Minsk Community
Клади много мелких объектов и запускай ещё периодик, чтобы агрегировала. Или заюзай например SQS и кидай туда данные
источник

MS

Mikalai Salauyou in AWS Minsk Community
вместо лямбды Fargate который будет собирать более крупные файлы, так еще и дешевле выйдет
источник

HA

Hleb Albau in AWS Minsk Community
Roman V .
Клади много мелких объектов и запускай ещё периодик, чтобы агрегировала. Или заюзай например SQS и кидай туда данные
к этому и пришел, решил переспросить, не зашел ли я слишком далеко, мб упустил какой сервис)
в gcp поидее взял бы bigquery и туда сохранял, у авс редшифт для такого кейса очн дорогой получается
источник

HA

Hleb Albau in AWS Minsk Community
Mikalai Salauyou
вместо лямбды Fargate который будет собирать более крупные файлы, так еще и дешевле выйдет
да, очень похоже на то, что лучше с лямбды в этом случае уйти в сторону контейнера
источник

V

Vlad in AWS Minsk Community
источник

V

Vlad in AWS Minsk Community
как вам такое?
источник

AV

Artem Voronin in AWS Minsk Community
на ценителя
источник

V

Vlad in AWS Minsk Community
девопс всея Руси :)
источник