Size: a a a

Natural Language Processing

2020 June 18

M

Manoj in Natural Language Processing
Ivan Dolgov
Oh, yes, you're right here. Initial question was about Kencdec and Vencdec and i thought you're talking about decoder already.
Can you please tell how are those Kencdec and Vencdec calculated?
источник

M

Manoj in Natural Language Processing
Bcoz it appeared only after the last encoder
источник

M

Manoj in Natural Language Processing
No where in between
источник

ID

Ivan Dolgov in Natural Language Processing
So, you have output from last layer of encoder, lets name it R_out. In decoder you have two types of attentions, as i said before. Kencdec and Vencdec are used only in Encoder Decoder attention. In this layer you calculate K,Q,V as K = R_out * W_k (this is Kencdec), V = R_out*W_v(this is Vencdec) and Q = X * W_q (X - embedding of target sequence).
источник

M

Manoj in Natural Language Processing
Ivan Dolgov
So, you have output from last layer of encoder, lets name it R_out. In decoder you have two types of attentions, as i said before. Kencdec and Vencdec are used only in Encoder Decoder attention. In this layer you calculate K,Q,V as K = R_out * W_k (this is Kencdec), V = R_out*W_v(this is Vencdec) and Q = X * W_q (X - embedding of target sequence).
Ohk. Thanks... I thought these K and V are something different
источник

M

Manoj in Natural Language Processing
I was confused between K and Kencdec...  I thought both of these are different.
источник

M

Manoj in Natural Language Processing
But these are same
источник

M

Manoj in Natural Language Processing
Kencdec= K from last encoder
источник

ID

Ivan Dolgov in Natural Language Processing
Why? Kencdec is calculated in Decoder part, there are his own weights in W_k matrix, which transform output from encoder.
источник

M

Manoj in Natural Language Processing
источник

M

Manoj in Natural Language Processing
Then let me properly research...becoz in the blog it's written that the outputs of top encoder are transformed into K and V
источник

M

Manoj in Natural Language Processing
источник

KD

Kabyken Daulet in Natural Language Processing
Ребята, привет.
Подскажите, плз, какими способами из .ann+.txt файла можно получить conll с IOB разметкой?
Гуглил, что-то не нашел толком решения.
Заранее благодарю!
источник

R

Rishi in Natural Language Processing
Valentin Malykh
in fact most of the topic models assign all the topics to a document (with different weights, of course)
Thank you.. Your inputs steered me in the correct direction.
источник

EM

Eugene Molodkin in Natural Language Processing
Kabyken Daulet
Ребята, привет.
Подскажите, плз, какими способами из .ann+.txt файла можно получить conll с IOB разметкой?
Гуглил, что-то не нашел толком решения.
Заранее благодарю!
я не помню из какого формата - кажется из WebAnno TSV - форматировал сам с помощью питона и NLTK - там есть кое-какой тулинг для Conll IOB
источник

EM

Eugene Molodkin in Natural Language Processing
существующих инструментов на тот момент для конвертации не нашел рабочих (года 3 назад)
источник

EM

Eugene Molodkin in Natural Language Processing
https://corpus-tools.org/pepper/ вот эта штука выглядела многообещающе, но не получилось завести, может сейчас лучше стало
источник

KD

Kabyken Daulet in Natural Language Processing
Eugene Molodkin
я не помню из какого формата - кажется из WebAnno TSV - форматировал сам с помощью питона и NLTK - там есть кое-какой тулинг для Conll IOB
спасибо, попробую!
источник

РН

Роман Некрасов... in Natural Language Processing
коллеги, из библиотеки tensorflow-text кто-нибудь тестировал токенизаторы и прочий функционал? есть что-то важное для обработки русскоязычных текстов?
источник
2020 June 21

Ю

Юра Незнанов... in Natural Language Processing
Роман Некрасов
коллеги, из библиотеки tensorflow-text кто-нибудь тестировал токенизаторы и прочий функционал? есть что-то важное для обработки русскоязычных текстов?
лучше керас. мне кажется проще использовать его
источник