Size: a a a

Natural Language Processing

2021 October 09

DD

David Dale in Natural Language Processing
У меня не sentenceBERT, а кросс-энкодер, то бишь он принимает на вход пару фраз и их классифицирует.
Дистиллировать не буду: у меня там такой конский объем обучающей выборки, что маленькую модель можно с нуля обучать, минуя стадию учителя.
источник

AM

Alex Mak in Natural Language Processing
👍🏼🔥
источник

SancheZz Мов in Natural Language Processing
Ооо
источник

SancheZz Мов in Natural Language Processing
Просто в принципе подход же тот же
источник

SancheZz Мов in Natural Language Processing
Сводить и разводить триплеты)
источник

SancheZz Мов in Natural Language Processing
Хотя можно решать по-разному
источник

SancheZz Мов in Natural Language Processing
Ждем результаты, успехов!
источник

SS

Semen Semenov in Natural Language Processing
Нужен специалист, который сможет помочь с поиском программиста.
На возмездной основе. Направление: NLP. Проектная работа.
источник

A

Anton in Natural Language Processing
Вы хоть опишите что за работа.
источник
2021 October 10

A*

Arman * in Natural Language Processing
привет всем! Есть текст например: ‘купить перфоратор ручной работы Yamakasi KC-15 в хорошом состоянии’. нужно каким-то образом достать Yamakasi KC-15. Возможно есть либа какая нибудь, или у вас идеи будут. Буду рад любой информации.
источник

SS

Semen Semenov in Natural Language Processing
Спасибо за вопрос
https://career.habr.com/vacancies/1000087419
источник

TG

Tegene Garedew in Natural Language Processing
источник

DD

David Dale in Natural Language Processing
1) Если у вас есть список всех возможных названий техники, то можно тупо в цикле поискать их всех в этой строке. Если их так много, что этот цикл будет медленный, рекомендую использовать либу pyahocorasick (или её аналоги для других языков): этот алгоритм умеет очень быстро искать в тексте очень много разных подстрок.
2) Если у вас такого списка нет, можно обучить собственную модель для NER. Примеров того, как это сделать, в сети вагон и маленькая тележка. Но в любом случае придётся достаточно много текстов размечать руками, указывая в них эти самые названия техники.
источник

M

Mary in Natural Language Processing
Хабр выглядит подробно. Как альтернатива, можно обучить используя оригинальный github sentence bert-a: есть скрипты для файнтюнинга на nli тасках, можно подсунуть своего берта и данные (мы так и делали) https://github.com/UKPLab/sentence-transformers/tree/master/examples/training/nli
источник

AM

Alex Mak in Natural Language Processing
👍🏼 спасибо!
источник

SS

Semen Semenov in Natural Language Processing
Только что обнаружил, что документ открывается только по запросу. Изменил настройки, теперь google-документ открыт для чтения.
источник

io

igor obed in Natural Language Processing
Подскажите пожалуйста, а есть параллельные корпуса для русского и английского, чтобы предложения были ещё размечены по эмоциям?
источник

DD

David Dale in Natural Language Processing
Есть куча таких корпусов с эмоциями на английском, и самый простой способ добыть то, что тебе нужно - перевести машинкой их на русский.
источник

io

igor obed in Natural Language Processing
Тут такое дело, я как раз сам хочу решить задачу машинного перевода с упором в первую очередь на передачу эмоций
источник

io

igor obed in Natural Language Processing
Мне все равно насколько читаемым и гладким получится текст для человека
источник