я не знаю о каких dbsubnet вы говорите, в AWS есть EC2 Subnet, для запуска RDS и ElastiCache их надо группировать в специфичные группы, я думал вы про группы спрашиваете
известно когда планируют спарк на 3 scala переписать? вообще интересный вопрос, гиганты типа твиттера вряд ли будут переезжать на 3, это же сколько работы понадобится, не добьет ли третья скала вообще всю скалу.
А в pyspark можно как-то значение колонок датафреймов сделать типа set, чтобы потом разницу множеств найти простым вычитанием? Не могу самостоятельно найти такого способа
ruby -> scala -> go? ну если первое привело к уменьшению серверов больше чем на порядок, то второе переписывание кто оплатит, уже такого эффекта не будет