Size: a a a

Natural Language Processing

2020 July 21

$

$○| in Natural Language Processing
ну ладно
источник

YB

Yuri Baburov in Natural Language Processing
надо переведённые фразы обратно встаить, тогда будет пример на русском. сейчас нету.
источник

$

$○| in Natural Language Processing
а это разве трудно автоматизировать скриптом каким нить
источник

$

$○| in Natural Language Processing
или надо прям вручную вставлять
источник

$

$○| in Natural Language Processing
я бы занялся если не вручную
источник

YB

Yuri Baburov in Natural Language Processing
$○|
или надо прям вручную вставлять
нет, автоматом всё. несколько часов работы осталось и всё.
источник

YB

Yuri Baburov in Natural Language Processing
Yuri Baburov
нет, автоматом всё. несколько часов работы осталось и всё.
час — сделать вставку, полчаса на проверку, час на оформление репозитория.
источник

$

$○| in Natural Language Processing
Yuri Baburov
час — сделать вставку, полчаса на проверку, час на оформление репозитория.
если хотите завтра сделаю
источник

$

$○| in Natural Language Processing
или вы сами
источник

$

$○| in Natural Language Processing
по моему датасет русских диалогов был бы полезен всем
источник

$

$○| in Natural Language Processing
в общем если что пишите. я пока в офф на время
источник
2020 July 22

AP

Alex Peresmeshnik in Natural Language Processing
I Апрельский
если ты знаешь лисп, то ты тем самым образом демонстрируешь, что у тебя есть возможность заниматься бесполезными вещами. то есть у тебя есть на это время. тебе не надо постоянно бороться за выживание. т.е. у тебя достаточно капиталов.
Так это аргумент в пользу лиспа. Зачем принуждать себя к бесполезным вещам, когда можно заниматься тем, что радует ;)
источник

АН

Александр Нагаев... in Natural Language Processing
Всем привет! Начал изучать tf 2.0 и ищу примеры, но во всех, слои написаны из keras, есть ли пример использования слоев из tf а не из keras и возможно ли это вообще в tf 2.0?
источник

V

Vladimir in Natural Language Processing
Egor Urvanov
https://github.com/natasha/natasha

Я говорил про вот эту репу, которая находится в проекте наташа. Вижу, она интегрирует в себе несколько технологий. Я на это внимания до этого не обратил и плохо прочитал то, что вы написали. Окей, спасибо
Подскажите пожалуйста, можно ли дообучить как-то NER для распознания новых сущностей?
источник

AK

Alexander Kukushkin in Natural Language Processing
Vladimir
Подскажите пожалуйста, можно ли дообучить как-то NER для распознания новых сущностей?
Процедура непростая, но можно. См. последний абзац https://natasha.github.io/ner/, скрипты для тренировки BERT NER https://github.com/natasha/slovnet/blob/master/scripts/02_bert_ner/main.ipynb и компактной модели https://github.com/natasha/slovnet/blob/master/scripts/05_ner/main.ipynb
источник

V

Vladimir in Natural Language Processing
Спасибо!
источник

SP

Sebastian Pereira in Natural Language Processing
Коллеги, а как бы вы в теории решили задачу при которой необходимо заполнять «промежутки» истории, у которой есть начало, середина и конец, а не генерировать её как у GPT с неизвестным результатом? Может есть такие решения уже, мне не известные?
источник

I

I Апрельский... in Natural Language Processing
А много надо историй?
источник

m

mel kaye in Natural Language Processing
Anton Kazennikov
С лиспом 2 проблемы:
- язык мощный -> нужна дисциплина, чтобы писать поддерживаемый код
- исторически лисп ассоциируется с лисп-машинами, т.е. штуками в себе. нужен кто-то кто поддерживает виртуальную среду лисп с компилятором, окружением и т.п. по аналогии как Оракл поддерживает jvm
есть sbcl который работает как cling компилируя common lisp в асм
источник

SP

Sebastian Pereira in Natural Language Processing
I Апрельский
А много надо историй?
Пока надо понять, как сделать одну)
источник