А, ну в этом смысле да, оно и правда работает - если складывать эмбеддинги в структурно схожих фразах, то и результат будет схожим.
А "композиционность" - это то, как лингвисты называют вычисление совокупного смысла фразы по отдельным её составляющим. И это то, что word2vec понимает плохо.
Возьмём, например, фразу "прогревание больного места". Она обозначает процесс прогревания, но если вычислить сумму векторов "прогревание+больное+место", то результат будет похож и на вектор для "больной человек", и на вектор для "место в пространстве", потому что мы никаким образом не показали, что слово "прогревание" здесь главное, а "больное место" - дополнительная, уточняющая часть.