Ну hadoop подразумевает не только вычислительный фреймворк, но и систему хранения данных. Например hbase далеко не во всех задачах хорош, он нетипизированный, но там можно кидать огромные значения в поле и он будет жить с этим неплохо. Если говорить про систему хранения, то точно зависит от задачи, и чаще всего hbase не очень нужна, hdfs да, часто пригождается. Про вычислительную часть на hadoop писать больно. Писал на hadoop java 8 и на spark scala. Несравнимое ощущение, 100 hadoop java строк становятся тремя на scala, тот же word count. Но hadoop часто побыстрее, только вот время на хороший код убьешь очень много