Size: a a a

Natural Language Processing

2019 December 13

ck

cnstntn kndrtv in Natural Language Processing
это что-то сильно классическое, но совершенно вылетело из головы. как-то бы ускорить процесс чтобы не писать свой велосипед.
источник

ck

cnstntn kndrtv in Natural Language Processing
источник

Y

Yurii in Natural Language Processing
cnstntn kndrtv
это что-то сильно классическое, но совершенно вылетело из головы. как-то бы ускорить процесс чтобы не писать свой велосипед.
Дескрипционная логика.
источник

YB

Yuri Baburov in Natural Language Processing
Вот только без добавления времени это всё очень странно выглядит... Наверное, тут read() всё же в прошедшем времени, типа, прочитал. Да и типы бы прописать для каждого функтора.
источник

ck

cnstntn kndrtv in Natural Language Processing
Вот думаю попробовать в Yargy это описать. Но может быть кто видел готовые сценарии для утверждений типа "все", "ни одного", "один из", "любой", "не менее чем", "как минимум один"
источник

Y

Yurii in Natural Language Processing
cnstntn kndrtv
Вот думаю попробовать в Yargy это описать. Но может быть кто видел готовые сценарии для утверждений типа "все", "ни одного", "один из", "любой", "не менее чем", "как минимум один"
источник

ck

cnstntn kndrtv in Natural Language Processing
Yurii
Оно понятно. Логика первого (вроде первого) порядка, предикаты, кс-грамматиками вполне описывается.
Есть ли готовые сценарии чтобы не писать свои правила?
Я точно это для русского видел, может в какой-то литературе под эгидой какого-нибудь лампового raai.org) но не помню, где.
источник

ck

cnstntn kndrtv in Natural Language Processing
Yurii за напоминание про Protege спасибо
источник

Y

Yurii in Natural Language Processing
cnstntn kndrtv
Оно понятно. Логика первого (вроде первого) порядка, предикаты, кс-грамматиками вполне описывается.
Есть ли готовые сценарии чтобы не писать свои правила?
Я точно это для русского видел, может в какой-то литературе под эгидой какого-нибудь лампового raai.org) но не помню, где.
Онтологическая модель представления и организации знаний.  Цуканова. Это оттуда.
источник

Y

Yurii in Natural Language Processing
Эту я не читал, но гляньте мб то.
источник

Y

Yurii in Natural Language Processing
источник

ck

cnstntn kndrtv in Natural Language Processing
Спасибо
источник

OS

Oleg Serikov in Natural Language Processing
если я учусь генерировать последовательность по одному вектору, то какой взять лосс?

сгенерированная последовательность может же быть длиннее чем таргет или короче.
паддинг?
источник

AS

Alex Surname in Natural Language Processing
gpt-2  с нуля подлежит обучению?
источник

I

Iv in Natural Language Processing
Alex Surname
gpt-2  с нуля подлежит обучению?
128 tpu берешь и погнал)
источник

AS

Alex Surname in Natural Language Processing
можешь кинуть линк на туториал? везде пишут про дообучение
источник

BZ

Boris Zubarev in Natural Language Processing
Oleg Serikov
если я учусь генерировать последовательность по одному вектору, то какой взять лосс?

сгенерированная последовательность может же быть длиннее чем таргет или короче.
паддинг?
Как сек2сек
Смотришь максимальную длину второй последовательности и паддишь второй сек до неё (или до вменяемого перцентиля), в crossentropyloss ставишь ignore_index=padding_index
источник

BZ

Boris Zubarev in Natural Language Processing
Oleg Serikov
если я учусь генерировать последовательность по одному вектору, то какой взять лосс?

сгенерированная последовательность может же быть длиннее чем таргет или короче.
паддинг?
Или ты имеешь в виду на инференсе? Вставь bos и eos токены (begin/end of sentence) и генери пока eos не встретится

У тебя все равно во время обучения хорошо выучится начало и конец последовательности, потому что они встречаются в каждом примере
источник

OS

Oleg Serikov in Natural Language Processing
Boris Zubarev
Как сек2сек
Смотришь максимальную длину второй последовательности и паддишь второй сек до неё (или до вменяемого перцентиля), в crossentropyloss ставишь ignore_index=padding_index
Зис
Посеба!
источник
2019 December 14

RD

Ramesh kumar Das in Natural Language Processing
https://ouo.io/aMtIxI great about machines
источник