Size: a a a

Natural Language Processing

2021 December 14

RR

Rufina Rafikova in Natural Language Processing
Всем привет, отправляю анонс сегодняшнего научно-технического вебинара НТР&HITs, на котором выступит Людмила Прохоренкова из Яндекс.

Людмила о вебинаре:
Для сравнения алгоритмов обычно используются метрики качества. Например, в задаче классификации можно использовать точность, F-меру и другие метрики. Возникает вопрос – как выбрать метрику качества для данной задачи?

Другими словами, можем ли мы как-то сравнивать между собой метрики? Мы подходим к этому вопросу с теоретической точки зрения – формируем список свойств, которыми должна обладать хорошая метрика, и теоретически проверяем эти свойства для популярных метрик. Помимо этого, мы получаем ряд интересных результатов. Например, мы доказываем, что не может существовать метрики, которая удовлетворяет всем свойствам сразу. Но если отказаться от одного из свойств, то можно предложить целое семейство метрик, которые удовлетворяют всем оставшимся свойствам.

Доклад, с которым выступит Людмила основан на статьях "Systematic analysis of cluster similarity indices: How to validate validation measures" (ICML 2021) и "Good Classification Measures and How to Find Them" (NeurIPS 2021).

Когда: 14 декабря 2021, 18:00 MCK (22:00 по Томску)
Спикер: Людмила Прохоренкова, Яндекс, Москва, Россия
Тема: Теоретический подход к выбору метрик качества в задачах классификации и кластеризации
Где: Zoom. Ссылка на регистрацию:  https://ntrlab.zoom.us/webinar/register/2816215991698/WN_YY9jyeyEQV6ST0YEmVR5fg
источник

VM

Valentin Malykh in Natural Language Processing
коллеги, в 15:00 приглашаю всех на наш воркшоп!
Тема: Воркшоп по nlp
Время: 14 дек. 2021 15:00 Москва
Подключиться к конференции Zoom
https://us02web.zoom.us/j/88141619755?pwd=YW9EeklablJVemt0cE91TXVtbXNRUT09
Идентификатор конференции: 881 4161 9755
Код доступа: 464257
агенда в PDF
источник

VM

Valentin Malykh in Natural Language Processing
для затравки: Татьяна Шаврина расскажет про проблемы современных бенчмарков, Варвара Логачева про то, как бороться с токсичностью в комментариях, а Михаил Галкин про токенизацию в графах знаний
источник

IG

Ilya Gusev in Natural Language Processing
Всем привет, я начал цикл статей по суммаризации:
1) https://habr.com/ru/post/595517/
2) https://habr.com/ru/post/595597/
Первая статья цикла: про саму задачу и методы, которые не требуют эталонных рефератов.
Вторая статья цикла: про экстрактивные методы с учителем.
В следующих частях планирую рассказать примерно всё, что я знаю о суммаризации, в том числе про современные трансформерные методы и способы оценки качества.
источник

SancheZz Мов in Natural Language Processing
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Спасибо! А запись будет?
источник

VM

Valentin Malykh in Natural Language Processing
да, будет
источник

ТИ

Танненберг Илья... in Natural Language Processing
Уже поглотили и хочется ещё!👍
источник

IG

Ilya Gusev in Natural Language Processing
спасибо, у меня почти всё уже написано, публиковать буду по вторникам и четвергам :)
источник

V⚪

Victoria ⚪️🔴⚪️... in Natural Language Processing
а после какого курса студенты выступают?
источник

VM

Valentin Malykh in Natural Language Processing
NLP курс от Huawei
источник

VM

Valentin Malykh in Natural Language Processing
источник

VM

Valentin Malykh in Natural Language Processing
если вам интересно поучаствовать, то в феврале будет новый запуск
источник

A

Anton in Natural Language Processing
👍🏻
источник

ГZ

Гражданин Z in Natural Language Processing
Здравствуйте, подскажите мне пожалуйста, я сейчас дошёл до изучения механизма внимания и архитектуры "трансформеры" и тут на меня снизошло понимание - rnn сети вообще больше не нужны теперь? Раз внимание делает всё тоже самое, но лучше и быстрее. И для решения любой задачи можно взять чужой бёрт, доучить его под свою задачу и получить лучшие результаты. Зачем я тогда разбирался в rnn, в lstm? Зачем о них пишут в книгах, если эти архитектуры теперь бесполезны по факту? Можно же сразу описывать механизм внимания
источник

SancheZz Мов in Natural Language Processing
А как же анализ временных рядов
источник

SancheZz Мов in Natural Language Processing
А как же рнн трансформер а-ля хлнет
источник

SancheZz Мов in Natural Language Processing
И тп и тд
источник

ГZ

Гражданин Z in Natural Language Processing
Тоже самое про всякие w2v, гловы, фаст тексты, все эти эмбединги тоже уже давно не нужны?
источник

ej

elton john in Natural Language Processing
не увидел колонки про прайсинг))
источник