Size: a a a

Natural Language Processing

2020 June 09

Y

Yura in Natural Language Processing
привет, может кто знает - есть ли какие-то способы сворачивания диалога в эмбеддинг?
источник

S

Subant in Natural Language Processing
привет. народ, а подскажите где поискать энтузиастов по автопилотам? Tensorflow, keras, opencv и все такое применительно к локализации, мапингу и навигации. Может у них форум есть или канал какой...
источник

ЖR

Женя RocketData in Natural Language Processing
у commaai был slack, не знаю насколько он сейчас живой
источник
2020 June 10

ЯЗ

Я — пехотинец Владим... in Natural Language Processing
Как зовут эту букву?
источник

П

Павел in Natural Language Processing
G
источник

П

Павел in Natural Language Processing
Вроде
источник

ЯЗ

Я — пехотинец Владим... in Natural Language Processing
Какая-то она странная
источник

AK

Anton K. in Natural Language Processing
похоже на фамильный герб
источник

DD

Darina Dementyeva in Natural Language Processing
готическая G
источник
2020 June 11

MD

Mitali Dubey in Natural Language Processing
I have studied basic concepts of nlp
источник

MD

Mitali Dubey in Natural Language Processing
Can anyone help me with a course structure like  how and  is to be done?
источник

VM

Valentin Malykh in Natural Language Processing
Переслано от Tari
Вышел Russian SuperGLUE!
Лидерборд : http://russiansuperglue.com
Код: https://github.com/RussianNLP/RussianSuperGLUE

Чтобы правильно оценивать русскоязычные языковые модели, такие как популярные сейчас BERT, RoBERTa, XLNet и т.д., нужно иметь какие-то объективные метрики. Подходов, как это делать, не так много, а для русского языка их не было. Представлен Russian SuperGLUE - бенчмарк для задачи общего понимания языка (General Language Understanding) и дальнейшего развития моделей на русском.

Набор новых задач для оценки моделей:
1. LiDiRus (Linguistic Diagnostic for Russian) или просто общая диагностика — её мы полностью адаптировали с английского варианта.
2. DaNetQA — набор вопросов на здравый смысл и знание, с да-нет ответом.
3. RCB (Russian Commitment Bank) — классификация наличия причинно-следственных связей между текстом и гипотезой из него.
4. PARus (Plausible Alternatives for Russian) — целеполагание, выбор из альтернативных вариантов на основе здравого смысла.
5. MuSeRC (Multi-Sentence Reading Comprehension) — машинное чтение. Задания содержат текст и вопрос к нему, но такой, на который можно ответить, сделав вывод из текста.
6. RuCoS (Russian reading comprehension with Commonsense) — тоже задача на машинное чтение. Модели даётся новостной текст, а также его краткое содержание с пропуском — пропуск нужно восстановить, выбрав из вариантов.
7. TERRa (Textual Entailment Recognition for Russian) — классификация причинно-следственных связей между предложениями (собрали с нуля по новостям и худлиту).
8. RUSSE (Russian Semantic Evaluation) — задача распознавания смысла слова в контексте (word sense disambiguation). Взят из RUSSE
9. RWSD (Russian Winograd Schema Dataset) — задания на логику, с добавленными неоднозначностями («Если бы у Ивана был осёл, он бы его бил»). Создан по аналогии с Winograd Schema.

Разработчики и энтузиасты приглашаются представить свои модели на лидерборде!

Пост на habr https://habr.com/ru/company/sberbank/blog/506058/
источник

FF

Futorio Franklin in Natural Language Processing
🎆
источник

Р

Родион in Natural Language Processing
Привет всем! Может быть кто-нибудь сталкивался с такой задачей, как определение степени 'переводимоси", то есть насколько его можно будет перевести человеку на другой язык?
источник

AY

Alexey Yurasov in Natural Language Processing
Родион
Привет всем! Может быть кто-нибудь сталкивался с такой задачей, как определение степени 'переводимоси", то есть насколько его можно будет перевести человеку на другой язык?
не сталкивался но сразу пришло в голову
перевести гуглом в одну сторону
потом в другую
поставить оценку по сравнению строк
источник

Р

Родион in Natural Language Processing
Alexey Yurasov
не сталкивался но сразу пришло в голову
перевести гуглом в одну сторону
потом в другую
поставить оценку по сравнению строк
Вот да, тоже об этом как раз и подумал :)
Но я думал сравнивать результат машинного перевода с тем, как перевел человек (благо, есть такие данные)
Но переводить туда-обратно звучит очень интересно, спасибо!
источник

D(

David (ddale) Dale in Natural Language Processing
Alexey Yurasov
не сталкивался но сразу пришло в голову
перевести гуглом в одну сторону
потом в другую
поставить оценку по сравнению строк
по-хорошему даже не гуглом, а какой-нибудь локальной моделькой, которая много вариантов перевода предлагает с вероятностями - тогда можно более информативные метрики посчитать
источник

AY

Alexey Yurasov in Natural Language Processing
David (ddale) Dale
по-хорошему даже не гуглом, а какой-нибудь локальной моделькой, которая много вариантов перевода предлагает с вероятностями - тогда можно более информативные метрики посчитать
да, будет быстрее и дешевле
источник

A

Alexander in Natural Language Processing
Коллеги, подскажите, а есть датасет, где указаны слова и их эмоциональная принадлежность (positive, negative, neutral). Интересует и RUS и ENG.
источник

A

Archie in Natural Language Processing
Alexander
Коллеги, подскажите, а есть датасет, где указаны слова и их эмоциональная принадлежность (positive, negative, neutral). Интересует и RUS и ENG.
гугли sentiment analysis
источник