Если OLTP - то вероятно, что стоит нормализовать.
Если DWH, то выбор между data vault\anchor model\и полной денормализацией.
По последней модели недавно смотрел статистику, она на 30-50% быстрее по чтению\записи, но места занимает в разы больше, зато простая для понимания.
Также стоит учесть как у вас будут храниться исторические данные для каждой модели и как вы будете отображать эти изменения.
Просто в некоторых случаях я понимаю, что мне гораздо удобнее было бы просто данные дозаписывать в уже имеющуюся шаблонную денормализованную выгрузку и кидать во вьюшку нужные столбцы из неё, группируя по измерениям..
Если же я буду её нормализовывать, то потом на выходе мне придётся её обратно денормализовывать и выдавать пользователям. Что как мне кажется не здорово.