Size: a a a

Natural Language Processing

2019 November 16

B

Brenoritvrezorkre in Natural Language Processing
Ну тут это работает по узнаванию: похоже на нормальное выражение или не похоже. Грамматическая некорректность позволяет, если опускать использование в художественных и стилистических целях (как минимум это слишком далеко от формализации), освободиться от множества заведомо неправильных вариантов, и тут никакой интуиции не нужно, но существуют грамматически корректные выражения, в которых смысла нет (если опускать художественные варианты использования, опять же): например, от Хомского иллюстрация -- "Colorless green ideas sleep furiously". Значит, у нас есть какие-то критерии осмысленности. А какие? Непонятно. Также существуют вполне осмысленные и грамматически корректные выражения, которые, тем не менее, будут неочевидными, их вряд ли будут использовать: вот самый яркий и известный пример -- это "Buffalo buffalo Buffalo buffalo buffalo buffalo Buffalo buffalo". Мы можем сказать, почему: лексика странная. Но как это понять в общем случае, не очень ясно, опять же. Или вот есть слишком абстрактные высказывания, которые легитимны, но вряд ли мы будем в обычном языке их использовать. Как определить абстрактность, не ясно.
источник

B

Brenoritvrezorkre in Natural Language Processing
Поэтому пока что по интуиции.
источник

D

Dmitry in Natural Language Processing
Для меня AGI это Asterisk Gateway Interface. А мы делаем голосовых ботов для телефонии
источник

B

Brenoritvrezorkre in Natural Language Processing
Это типичное отличие know-how от know-that. Мы умеем в целом определять, употребляем ли так язык или нет (не всегда умеем, если что), но назвать критерии нам бывает очень трудно.
источник

B

Brenoritvrezorkre in Natural Language Processing
Dmitry
Для меня AGI это Asterisk Gateway Interface. А мы делаем голосовых ботов для телефонии
Artificial general intelligence. По моему мнению, это термин без содержания.
источник

SS

Sergey Sikorskiy in Natural Language Processing
Kir
со стороны иногда кажется, что Brenoritvrezorkre не менее чем Дж. Кармак, закрывшийся дома в попытках создать AGI.  Извините, ничего личного, на правах субботы (
Кармак как раз буквально на днях ушел со старой работы (Facebook) что-бы заняться AGI вплотную. 🙂
Он, кстати, очень конкретный товарищ. Пустое теоретизирование на дух не выносит.
источник

Y

Yurii in Natural Language Processing
Sergey Sikorskiy
Кармак как раз буквально на днях ушел со старой работы (Facebook) что-бы заняться AGI вплотную. 🙂
Он, кстати, очень конкретный товарищ. Пустое теоретизирование на дух не выносит.
это кто такой? есть какие-то результаты?
источник

SS

Sergey Sikorskiy in Natural Language Processing
Yurii
это кто такой? есть какие-то результаты?
Тот, кто сделал Doom, а потом работал над очками в Oculus.
источник

Y

Yurii in Natural Language Processing
Sergey Sikorskiy
Тот, кто сделал Doom, а потом работал над очками в Oculus.
Понятно, ну это не результаты😀
источник

SS

Sergey Sikorskiy in Natural Language Processing
Yurii
Понятно, ну это не результаты😀
За ним опытные люди с деньгами стоят. Так что команду соберут мгновенно.
источник

Y

Yurii in Natural Language Processing
Sergey Sikorskiy
За ним опытные люди с деньгами стоят. Так что команду соберут мгновенно.
Таких команд наверное как грязи и без него) Вообще не показатель.
источник

K

Kir in Natural Language Processing
Sergey Sikorskiy
Кармак как раз буквально на днях ушел со старой работы (Facebook) что-бы заняться AGI вплотную. 🙂
Он, кстати, очень конкретный товарищ. Пустое теоретизирование на дух не выносит.
Я потому его и упомянул! Новость, конечно, неоднозначная
источник

RK

Roman Kononov in Natural Language Processing
источник

RK

Roman Kononov in Natural Language Processing
там много интересного в комментах
источник

SS

Sergey Sikorskiy in Natural Language Processing
Yurii
Таких команд наверное как грязи и без него) Вообще не показатель.
Он в этой истории для маркетинга (как и в предыдущей). Это, скорее всего, та же самая команда делает новый стартап.
источник
2019 November 17

AI

Anna Ivanova in Natural Language Processing
привет. никто случайно не знает, где взять базу знаний? Правила в формате "если, то". Тематика любая.
источник
2019 November 18

VI

Vitaly Ivanin in Natural Language Processing
Есть задача по логам чата выявить пары сообщений, потенциально полезные для обучения чат-бота.
Типо вопросы-ответы, реакции на утверждения ("не забудь купить молоко" - "хорошо, не забуду", "они молодцы" - "да, я за них болел") и возможно что-то ещё. Как к такой задаче стоит подойти?
Помню была статья, где юзался датасет для классифицирования двух суждений, как они с друг другом соотносятся, но там был берт и это как -то жирно
источник

AK

Anton Kiselëv in Natural Language Processing
Vitaly Ivanin
Есть задача по логам чата выявить пары сообщений, потенциально полезные для обучения чат-бота.
Типо вопросы-ответы, реакции на утверждения ("не забудь купить молоко" - "хорошо, не забуду", "они молодцы" - "да, я за них болел") и возможно что-то ещё. Как к такой задаче стоит подойти?
Помню была статья, где юзался датасет для классифицирования двух суждений, как они с друг другом соотносятся, но там был берт и это как -то жирно
Можно попробовать спарсить какой-нибудь чат с реплаями и на нем обучиться классифицировать пары предложений
источник

D

Dmitry in Natural Language Processing
Vitaly Ivanin
Есть задача по логам чата выявить пары сообщений, потенциально полезные для обучения чат-бота.
Типо вопросы-ответы, реакции на утверждения ("не забудь купить молоко" - "хорошо, не забуду", "они молодцы" - "да, я за них болел") и возможно что-то ещё. Как к такой задаче стоит подойти?
Помню была статья, где юзался датасет для классифицирования двух суждений, как они с друг другом соотносятся, но там был берт и это как -то жирно
Обычный классификатор.
источник

D

Dmitry in Natural Language Processing
Размечаете датасет и вперёд.
источник