Size: a a a

Natural Language Processing

2021 October 22

A

Alex in Natural Language Processing
а можно чуть подробнее?)
источник

AS

Artem Sergeev in Natural Language Processing
Кажется "стек нейросеток" мало отношения имеет к конкретному языку, особенно с учётом результатов показанных в блокноте :)

Результаты же ваши и правда выглядят интересными, с решением действительно возникает желание познакомиться поближе - есть такая возможность?
источник

A

Alex in Natural Language Processing
понятно что ничего не понятно)
источник

V

Vic in Natural Language Processing
Да, можно сделать демку в телеграм, просто там наработки наши и не охота открывать.
И игра слов стек нейросеток на само деле не игра, там одной сеткой не получится добиться результата
источник

V

Vic in Natural Language Processing
не все могу сказать, уверен вы сможете погуглить и найти сами тк основную сеть я сказал
источник

A

Alex in Natural Language Processing
благодарю вас
источник

AS

Artem Sergeev in Natural Language Processing
Чтож, всё равно спасибо, хотя бы за направление
источник

AS

Artem Sergeev in Natural Language Processing
Это именно BART, не BERT?
источник

АТ

Аля Тафинцева... in Natural Language Processing
привет) может есть какая-то рабочая регулярка, чтобы достать мобильный телефон любой страны в любом формате?
источник

p

palladdiumm in Natural Language Processing
источник

B

Banof in Natural Language Processing
🔫 @siberian_ambsace кикнут — вернуть этого пользователя можно только разбаном в настройках чата.

Проголосовавшие за кик:
@wadimiusz, @SamsonovaDaria, @tsukimy, @andapka, @Nikolay_Karelin
При поддержке Золота Бородача
источник

AO

Alex Orgish in Natural Language Processing
источник
2021 October 23

МА

Максим Антонов... in Natural Language Processing
Привет.

Есть задача классифицировать фразы из чатов по принципу к какому полу обращался человек. Подскажите какие инструменты для этого использовать?
Я попытался при помощи Natasha сделать синтаксический разбор и посчитать какого рода слов больше. Естественно получил неудовлетворительный результат.

Например: «Книга была классная о любви и разлуке. Сам почитай!» - женских слов больше, обращение к мужчине.

Дайте направление - куда копать?
источник

V⚪

Victoria ⚪️🔴⚪️... in Natural Language Processing
Хм, может сначала посмотреть, а разделяются ли вектора фраз на два кластера?
источник

N

Natalia in Natural Language Processing
(есть мнение, что задача сама так себе, и там обязательно будут такие вот подставы)

но да, логичней смотреть на род всего, что как-то согласуется с глаголами или местоимения 2 лица (хотя там всё равно может быть шум — обобщённо-личные предложения, цитаты и т.п.)
источник

МА

Максим Антонов... in Natural Language Processing
Ох. Я ж совсем нуб. Предлагаете векторизовать тексты и попробовать без учителя поделить на два класса? Тут наверное  больше вылезет негатив-позитив, т.к. негатива в данных много.

На род всего, что согласуется с глаголами и местоимениями - интересно… Спасибо.
источник

DD

David Dale in Natural Language Processing
В данном случае мы понимаем, что фраза обращена к мужчине, по словам "сам почитай", т.к. "почитай" - во втором лице (т.е. это тот человек, к которому обращаются), а слово "сам" мужского рода синтаксически связано с этим "почитай".
Думаю, что надо закодить такого рода правила, опирающиеся как на морфологию (узнавание рода и лица), так и на синтаксис (какие слова связаны с какими), а Наташа умеет и то, и другое. Должно получиться умнее, чем просто подсчитывать слова разного рода.
источник

МА

Максим Антонов... in Natural Language Processing
О! Спасибо. Хорошее направление. С два-три десятка проанализировать вручную, попытаться закодить правила.
источник

EE

E E in Natural Language Processing
Если анализировать вручную,  тогда уж сразу размечать - потом пригодится как минимум для тестирования,  а можно и для обучения берта какого-нибудь.  Только я бы не просто всю фразу размечал, а еще выделял бы фрагмент,  который содержит ответ и систему бы тоже обучал этому - пусть не просто отвечает,  но и обосновывает, меньшее переобучение будет.
источник

МА

Максим Антонов... in Natural Language Processing
Ох. Вот тут мне видимо теории не хватает. Я-то полез сразу в NLP. Ну прошел перед этим базовые деревья решений и случайный лес. Поигрался с w2v - слека понял что к чему. Поигрался с бредогенерацией на ru-gpt - ничего не понял. Просмотрел курс на степике от Самсунга - завис…. Прошел на kaggle курс по нейросетям - стал хоть немного понимать. Теперь видимо надо ковыряться в LSTM сначала, потом в трансформерах и всяких бертах.
источник