Size: a a a

Natural Language Processing

2021 November 29

A

Andrey in Natural Language Processing
да, это тоже кейс, и вполне рабочий. это тоже downstream, и пользует векторное пространство...
источник

d

dePuff in Natural Language Processing
Я боюсь неконтекстными векторами сейчас только ради скорости пользуются
источник

d

dePuff in Natural Language Processing
А так есть магия нейронок, где текст можно свернуть в вектор, в его развернуть в картинку и многое другое
источник

A

Andrey in Natural Language Processing
я ж про то, что word2vec с одной стороны для слов, а с другой стороны для котиков для каких-то концепций вообще отвязанных. например ВВП на душу населения в таком духе.

типа говорим масло - всем хорошо. говорим пушки... ну это другое.
источник

A

Andrey in Natural Language Processing
я в курсе dall-e (из pytorch hub), даже у себя запускал, и даже пытался где-то в прод пушнуть clip. я подозадачился маппингом
источник

IG

Ilya Gusev in Natural Language Processing
Не понял, при чём тут ВВП
источник

d

dePuff in Natural Language Processing
Хэширование фич?)
источник

IG

Ilya Gusev in Natural Language Processing
Легче не стало
источник

ВЧ

Василий Чесалов... in Natural Language Processing
Наверное это про социум
источник

A

Andrey in Natural Language Processing
ВВП как концепция, не как число. Взять например какие-то два домена - экономика, и скажем, культура.

как моя мать говорит - чем в стране хуже, тем смешнее КВН
источник

IG

Ilya Gusev in Natural Language Processing
Так и что? При чём тут word2vec? Можно развернуть мысль?
источник

d

dePuff in Natural Language Processing
Человек видит логрег предсказывающий культуру по экономике, но такой многомерный и всё это в одном пространстве
источник

d

dePuff in Natural Language Processing
Я не вижу, но я не настоящий сварщик
источник

IG

Ilya Gusev in Natural Language Processing
Это слишком много для модели, которая предсказывает слово по контексту :)
источник

A

Andrey in Natural Language Processing
word2vec-модель на экономических текстах и второй - на культурных. и так много раз, по времени или по странам, не суть, это потом.

для каждого раза найти маппинг пространств.

далее, в нем переходом найти чтотнадо делать с культурой, чтобы разбогатеть)
источник

A

Andrey in Natural Language Processing
хорош прикалываться) логрег кстати очень вещь)

не. я тополог в далеком анамнезе. и поэтому всякие морфизмы меня интересуют. ладно, надо поискать время на эксперименты
источник

A

Andrey in Natural Language Processing
пространства два, в том и дело
источник

IG

Ilya Gusev in Natural Language Processing
Тут столько всего не так, что я даже затрудняюсь, с чего начать.
Во-первых, с чего вдруг пространство векторов слов должно содержать с точки зрения информации что-то большее, чем синоним/антоним/гипероним/*оним? Откуда там взяться даже причинно-следственным связям, не говоря уж о более сложных вещах?
Во-вторых, выведение из самого отображения последовательностьэи действий - это вообще за гранью фантастики
источник

IG

Ilya Gusev in Natural Language Processing
Не надо приписывать простым моделям магические свойства
источник

DD

David Dale in Natural Language Processing
Одно из применений "king - man + woman" - стилизованное перефразирование. Например, можно пытаться переписать текст, сделав его более формальным, если найти такой вектор, который при прибавлении к эмбеддингу слова будет давать более формальный синоним этого слова. Я пробовал, работает не хуже других few-shot подходов.

Другое применение - автоматическое словообразование. Иногда для прикладных задач бывает нужно найти, например, по прилагательному соответствующее ему сущестивтельное, скажем, по "красный" найти "краснота". Словарей таких - мало, а если писать правила, то вместо "зелени" и "голубизны" получим "зеленизну" и "голубь". А вот если искать вектор типа "желтый  + краснота - красный", то на правильную "желтизну" вполне можем выйти.
источник