Т.е за один раз такого плана табличку с таким кол-вом строк загрузить будет проблемно-невозможно и остается только вариант загрузки ее только по частям? И далее использовать ее целиком тоже будет проблематично в отчетности?
А вообще какой рекомендуемый объем ОЗУ для работы с такого рода таблицами если таких таблиц несколько и объем в них пока только за 1 год и постоянно растет?
Здесь другие подходы к архитектуре и они в целом не связаны напрямую с ОЗУ… так как разные предметные области имеют разные структуры и особенности данных
Это понятно что напрямую не связаны с ОЗУ, просто порядок Гб интересует при работе с такими объемами данных хотя бы ориентировочный, пока сказали 256Гб ОЗУ. Вот интересует вопрос хватит или мало и можно ли обойтись меньшим кол-вом?
Детальный лог за месяц-квартал например детализация максимальна объем тоже может быть большой, пользователей много особенно в отчетный период 01 числа например, 50-60 отчетов одновременно запущено сейчас бывает по БД.
Я к тому что я плохо представляю человека, которому нужна минимальная детализация по всем разрезам… там либо по географии будет фильтрация либо по орг структуре
Вопрос кто работал с такими объемами сколько ОЗУ обычно на сервере с qlik у вас? Просто цифра для понимания не более того? Например 10 юзеров активных - 128Гб макс, или 50юзеров активных-256Гб Озу...
определенно вам нужно будет использовать ее с функционалом ODAG. Создать агрегированное представление данных как отдельный QVD, и догружать из детального QVD только данные, ограниченные выборкой