1. Много доп сервисов, которые можно совмещать там же - журналирование, мониторинг, компоненты интеграции, можно средствами виртуализации бекапить/реплицировать/высокая доступность
2. Разные контуры изолировать вместо отдельного набора железа, возможно нагрузка в разное время типа сбора данных днем hadoop+hdfs, ночью hdfs+spark гонять, тоже самое шарить gpu
3. Абстракция от конфигурации, тк рекомендация все таки одинаковые конфигурации узлов иметь
4. Легче добавить как сервис в какой-нибудь оркестратор
Хотя наверно если реально можешь утилизировать, то смысла меньше, хотя с другой стороны чем больше данных и понимаешь их, находишь закономерности и тд, их становится меньше, куда потом железо девать?)