Size: a a a

Natural Language Processing

2021 October 09

SS

Sergey Sikorskiy in Natural Language Processing
Аргументируйте плиз.
источник

AP

Alex Peresmeshnik in Natural Language Processing
Вот здесь и аргументировано ;)
источник

SS

Sergey Sikorskiy in Natural Language Processing
"Вот здесь" перечислены отличия.
Хотелось бы увидеть сделанный на miniKanren какой-нибудь серьезный проект, что-то типа Erlang, который был изначально написан на прологе, и только потом уже получил свою собственную VM.
источник

SS

Sergey Sikorskiy in Natural Language Processing
Ну а вообще, constraint solvers в мире много.
источник

AP

Alex Peresmeshnik in Natural Language Processing
Не хотелось бы, т.к. "серьезность" такого проекта под большим вопросом, очевидна его бессмысленность. Канрен встраивается во все что шевелится, потому как в основе лежит LISP со всеми его возможностями.
источник

SS

Sergey Sikorskiy in Natural Language Processing
Какие же такие необыкновенные возможности есть в Лиспе? 😐
источник

SS

Sergey Sikorskiy in Natural Language Processing
Кстати, как Вы управляете поисковыми стратегиями в Kanren?
источник

AP

Alex Peresmeshnik in Natural Language Processing
Это вам расскажут в соответствующих группах и не раз обсуждалось в интернетах, здесь группа совсем о другом и даже не о "логическом программировании"
источник

SS

Sergey Sikorskiy in Natural Language Processing
Ну вот, не знаете о чем говорите.
источник

AP

Alex Peresmeshnik in Natural Language Processing
Учитывая твою двуличность такое глупое высказывание вполне ожидаемо. Можешь полистать чат выше посчитать сколько раз ты про "другие чаты" упоминал ;)
источник

A

Andrey in Natural Language Processing
началось в деревне утро)
источник

D

Daria in Natural Language Processing
Надеюсь, они не в часовом поясе МСК живут
источник

M

Mary in Natural Language Processing
Привет, мы в Deeppavlov тюнили мультиязычный и русский Sentence BERT на NLI тасках: http://docs.deeppavlov.ai/en/master/features/models/bert.html

Sentence Multilingual BERT is a representation-based sentence encoder for 101 languages of Multilingual BERT. It is initialized with Multilingual BERT and then fine-tuned on english MultiNLI and on dev set of multilingual XNLI.
Sentence RuBERT is a representation-based sentence encoder for Russian. It is initialized with RuBERT and fine-tuned on SNLI google-translated to russian and on russian part of XNLI dev set.
Sentence representations are mean pooled token embeddings in the same manner as in original Sentence-BERT.
источник

DD

David Dale in Natural Language Processing
Спасибо! А как из sentence rubert получить классификацию типа entailment/contradiction/neutral?
источник

SancheZz Мов in Natural Language Processing
Мы наш также тюнили
источник

SancheZz Мов in Natural Language Processing
В сбере
источник

SancheZz Мов in Natural Language Processing
Использовали переведненые mnli xnli
источник

SancheZz Мов in Natural Language Processing
Snli
источник

SancheZz Мов in Natural Language Processing
Правда ток на ру
источник

DD

David Dale in Natural Language Processing
Тогда тот же вопрос: можно ли вашей моделью, без дополнительного обучения, получить классификацию пар предложений на entailment/contradiction/neutral?
источник