просто надо было хранить бинарные данные которые легко можно было бы сериализовать/считывать в кложе. при этом нужна была поддержка durable записей, дозаписи в файл и стримингового чтения
> Kafka supports this with an efficient batching format. A batch of messages can be clumped together compressed and sent to the server in this form. This batch of messages will be written in compressed form and will remain compressed in the log and will only be decompressed by the consumer.
Есть не относящийся к кложуре вопрос. Есть access и refresh токены. Несколько параллельных запросов. Как обработать ситуацию когда на одном из запросов закончилось время жизни access токена, а остальные запросы уже ушли. Что вы с ними делаете в своих проектах?