Size: a a a

Глубинное обучение (группа)

2016 November 15

AB

Arcady Balandin in Глубинное обучение (группа)
потому что искажений грамматики уже быть не должно. Google же сказал что их обучение полностью реконструировало английскую грамматику само только по корпусу.
источник

AB

Arcady Balandin in Глубинное обучение (группа)
искажения смысла из-за полисемии? или из-за метафор? какого рода тебе чаще встречаются?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
из-за нелинейности текста (отрицания, сложные конструкции итп) и из-за полисемии
источник

AB

Arcady Balandin in Глубинное обучение (группа)
"отрицание" - почему-то у меня сразу вспоминается область охвата (scope), которая не только в языках программирования есть. например, "Я не знал, что он не видит".
Такого рода отрицание правильно не воспринимается?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
источник

YB

Yuri Baburov in Глубинное обучение (группа)
до сих пор примерно так и остаётся
источник

AB

Arcady Balandin in Глубинное обучение (группа)
странно.
источник

AB

Arcady Balandin in Глубинное обучение (группа)
очень странно, что это так.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
не, простые отрицания — норм. а двойные уже не очень. но смотреть надо по конкретному примеру
источник

AB

Arcady Balandin in Глубинное обучение (группа)
с другой стороны, от SMT и не надо ждать ничего другого. А от Compreno я тоже ничего не жду. Что у них в основе то? нейроные сети али RBMT?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
я бы сказал, в основе Compreno много разных beam search :)
источник

AB

Arcady Balandin in Глубинное обучение (группа)
In computer science, beam search is a heuristic search algorithm that explores a graph by expanding the most promising node in a limited set.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
у compreno обратная проблема — с незапрограммированной лексикой. и со скоростью — одно предложение в секунду.
источник

AB

Arcady Balandin in Глубинное обучение (группа)
хрень какая-то.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ну вот смотри. есть у тебя уровень морфологии. тебе нужен синтаксис. ты перебираешь варианты для каждого слова, и оставляешь наиболее правильные слова и комбинации. так? это и будет beam search.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
т.е. перебор, можно сказать
источник

YB

Yuri Baburov in Глубинное обучение (группа)
набор правил + перебор
источник

AB

Arcady Balandin in Глубинное обучение (группа)
я тут общаюсь с OpenCog, у них идея переводить английский текст по RBMT в ложбан, а с ложбана уже легко переводить на язык логического представления. а оттуда на любой натланг опять.

но я понять не могу, чем их нейронные сети не устраивают. вроде бы rbmt - вчерашний день.

wiki.opencog.org/wikihome/index.php/Lojbanic_Relex2Logic
источник

YB

Yuri Baburov in Глубинное обучение (группа)
нейросети и rbmt — это две стороны одной монеты.
нейросети хранят правила, просто разница в том, что в одном случае — небольшое количество явных правил, во втором — большое количество неявных.
источник

AB

Arcady Balandin in Глубинное обучение (группа)
ну так в чем проблема-то остается? вроде у Compreno перевод то из скриншота правильный.
источник