Разница в том, что появляется техническая возможность хранить массив данных в QVD, даже если нет возможности прогрузить все исходные данные из источника разом, чтобы сохранить в QVD
Реализовывал такой подход для транзакций платежных систем внутри игрового департамента, там в день могло до 2х миллионов строк транзакций прилетать. В итоге первичная выгрузка складировала чистые данные по структуре папок год—>месяц->день. И она же считала агрегаты по такой же структуре.
Инкремент докладывал транзакции в чистые данные и так же инкрементально обновлялись только те дни/месяцы/года в которые прилетало изменение.
И потом уже для разных целей брались агрегаты нужного уровня или чистые данные для точечного анализа
От источника зависит) Сервлет опрашивали раз в час и он не всегда мог вернуть полный объём новых данных, приходилось сокращать интервал выгружаемых данных порой до 10секунд и делать последовательно выгрузку внутри часа. Каждый раз опрашивать такой источник целиком не представляется возможным
А кстати это интересный вопрос. Есть приложение, в нем динамическая вьюха. Один пользователь загрузил например 10Гб из QVD файлов, другой те же файлы плюс еще 10Гб. Какова утилизация памяти>