Потому что "смысл" - это очень сложно.
Есть модельки типа гугловского universal sentence encoder, они пытаются тексты представлять в виде векторов фиксированного размера, и для ряда задач это нормально работает.
Например, в Алисе поверх таких эмбеддингов делается классификация интентов.
Но когда текст (произвольной длины) переводится в вектор (фиксированного размера), информация точно теряется. Для задач классификации это часто окей, но для ряда других задач (например, перевода) потери информации слишком высоки, чтобы это работало приемлемо.
а если не секрет фирмы, какие сентенс эмбеддинги заехали в алисе? USE?