Size: a a a

Natural Language Processing

2020 July 21

MT

Mikhail Tikhomirov in Natural Language Processing
не помню как было в прошлые года
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Хотя кодалаб лагает иногда дико
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Лично от себя порекомендую предсказание гиперонимов в таксономии :)
источник

ПП

Павлик Павлик... in Natural Language Processing
они получается только раз в год публикуют сборник, авторов лучших статей из которого приглашаютв конференцию?
источник

MT

Mikhail Tikhomirov in Natural Language Processing
раз в год проходит конференция, куда стандартный отбор через дабл блайнд ревью
источник

MT

Mikhail Tikhomirov in Natural Language Processing
большинство принятых работ публикуются и индексируются в scopus
источник

MT

Mikhail Tikhomirov in Natural Language Processing
часть работ принимаются но не публикуется в этом сборнике, но публикуются на сайте, вроде как
источник

ПП

Павлик Павлик... in Natural Language Processing
ок.
спасиб :)
источник

I

I Апрельский... in Natural Language Processing
Mikhail Tikhomirov
Лично от себя порекомендую предсказание гиперонимов в таксономии :)
а GT там откуда-то кстати бралось?
источник

MT

Mikhail Tikhomirov in Natural Language Processing
I Апрельский
а GT там откуда-то кстати бралось?
Есть неопубликованная часть тезауруса, которая также как и основная часть, создавалась лингвистами вручную. Часть этой неопубликованной части и была эталоном.
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Суть задачи в том, чтобы упростить задачу расширения тезауруса на новые предметные области \ новые домейны и тп, имея уже некоторую основу.
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Кстати никому так и не удалось успешно применить какой-нибудь берт в данном соревновании. Хотя попытки использования были. В одном случае вроде как люди пытались только бертом решить, результаты вышли так себе. В другом случае с помощью берта в дополнении к основному алгоритму вышло получить прирост качества некоторый.
источник

I

I Апрельский... in Natural Language Processing
источник

I

I Апрельский... in Natural Language Processing
а элмо получилось?
источник

I

I Апрельский... in Natural Language Processing
подозреваю, что никто и не попробовал. просто гифка подходящая же есть
https://media1.tenor.com/images/984e76ac115b0b7b43b39dc6c697773d/tenor.gif?itemid=10746038
источник

MT

Mikhail Tikhomirov in Natural Language Processing
xD не, не пробовали elmo вроде
источник

MT

Mikhail Tikhomirov in Natural Language Processing
вообще не так просто придумать как тут контекстные эмбединги правильно использовать. Хотя были вроде попытки поиска предложений и извлечения эмбедингов в контекстах с последующим усреднением. Но не много экспериментов проводилось в этом направлении. Я пробовал просто идею KG-BERT статьи, она и дала некоторый прирост
источник

I

I Апрельский... in Natural Language Processing
а кодалаб этих соревов доступен? туда можно еще сабмитить?
источник

$

$○| in Natural Language Processing
Yuri Baburov
могу вложиться частично (или по согласованию с работодателем, даже полностью), и сделаем открытый датасет. штука очень полезная для всех русских чат-ботов.
Чем тогда закончилось эта инициатива с переводом диалогов?
источник

MT

Mikhail Tikhomirov in Natural Language Processing
I Апрельский
а кодалаб этих соревов доступен? туда можно еще сабмитить?
Да, все доступно, прайват часть тоже доступна в формате post-evaluation
источник