Вот простой кейс, загрузить здоровую таблицу фактов и по ней делать анализ (фильтры, агрегации, группировки, count distinct, несложные расчётные показатели и измерения), ведь довольно стандартная задача просто на бОльшем объеме данных
Попробуйте-ка сделать запрос к набору источников, данные которых находятся в общей модели, но эти источники: текстовый файл на пару сотен миллионов строк, xml-файл такого же объёма, REST-сервис с объёмом данных хотя бы в несколько десятков миллионов записей и какая-нибудь БД. И посчитайте- сколь такой запрос будет выполняться. Если вдруг это взлетит хотябы на одном пользователе, то попробуйте поработать в таком режиме прямых запросов хотя бы одной сотней пользователей с непредсказуемой комбинацией фильтров. После чего задайте себе вопрос- а взлетит ли это хотя бы на каком-нибудь сколь бы то ни было большом и дорогом оборудовании? А ведь в Qlik такое работает универсально и без вопросов
Для начала нужно определиться с тем, что такое "большая таблица". Если она не превышает единиц миллиардов записей, то Qlik работает с этим прекрасно сам. Без каких-либо продвинутых и дорогих источников
Встречный вопрос: сколько у вас данных в этом хранилище в процентном отношении по отношению к общему объёму данных, который реально используют пользователи для анализа?
Вы имеете в виду то, что в Power BI не строятся transient hypercube? На самом деле из моего понимания, Qlik строят под каждый виджет маленький куб и за счёт этого работает всё быстро. Тогда как Power BI шлёт обычные SQL запросы в их vertipaq engine и этот engine каждый раз сканирует полностью кубы
Обычно великим достижением является, если хотя бы 60% данных лежат в хранилище. Всё остальное- по сусекам. И чем в таком случае поможет наличие прямых запросов?
По практике. Абсолютно немасштабируемое решение. Не может одновременно масштабироваться на сотни миллионов записей с которыми вразнобой одновременно работают тысячи пользователей
Любые решения подобного размера предполагают жёсткий тюнинг каждого отдельного сценария внутри каждого отдельного приложения и каждого отдельного источника на основе которого делаются расчёты