Size: a a a

Natural Language Processing

2021 October 18

SS

Sergey Shulga in Natural Language Processing
Берешь любой глагол, ставишь его в ТЕ-форму и прибавляешь しまう (только обычно в прошедшем времени, тут я привел словарную). И все. Просто конструкция, имеющая вполне нормальный перевод на любой язык мира.
источник
2021 October 19

DD

David Dale in Natural Language Processing
Всем привет!
А ни у кого не осталось обученных весов от модели https://github.com/Lesha17/Punctuation?
А то ссылка в репозитории протухла.
@psydmax @nshmyrev @sashzhu вы эту модель обсуждали, может быть, веса от неё остались?
источник

EE

Enot Enotovich in Natural Language Processing
Ты решил японский выучить?))
источник

SS

Sergey Shulga in Natural Language Processing
Я его знаю
источник

EE

Enot Enotovich in Natural Language Processing
Площадка для продвижения наших сервисов?))
источник

TM

Toemik Mnemonic in Natural Language Processing
всем привет! какую именно loss function по умолчанию считает и записывает transformers  для задач классификации текста  https://github.com/huggingface/transformers/blob/4a872caef4e70595202c64687a074f99772d8e92/examples/legacy/text-classification/run_tf_text_classification.py#L295
источник

TM

Toemik Mnemonic in Natural Language Processing
и можно ли использую интерфейс simpletransformers выбрать конкретную loss (MAE, MSE, кросс энтропия, шеннон) для обучения?
источник

SS

Sergey Shulga in Natural Language Processing
NLP)? У них с этим и так неплохо, язык удобный.
источник

AB

Arcady Balandin in Natural Language Processing
Там несколько значений. Но которое обсуждается на русский похоже переводится как "случайно" или типо того. В любом случае Зельдович умилился выбросу от якобы нейронки. Ну ок
источник

SS

Sergey Shulga in Natural Language Processing
Зельдович такой)
источник

AB

Arcady Balandin in Natural Language Processing
А Петросян сказал что его комп умеет шутить ибо написал его фамилию как Петросня.
источник

NS

Nikolay V. Shmyrev in Natural Language Processing
сейчас поновее есть полно моделей вроде https://github.com/sviperm/neuro-comma
источник

SS

Sergey Sikorskiy in Natural Language Processing
источник

B

Banof in Natural Language Processing
🔫 Antje Walter кикнут — вернуть этого пользователя можно только разбаном в настройках чата.

Проголосовавшие за кик:
@LoneGeek, @anton_andrew, Al Dyachkov, @SaturnOleg, @ksotar
При поддержке Золота Бородача
источник

SS

Sergey Sikorskiy in Natural Language Processing
источник

B

Banof in Natural Language Processing
🔫 Jessica Amsel кикнут — вернуть этого пользователя можно только разбаном в настройках чата.

Проголосовавшие за кик:
@LoneGeek, @RedArmadillo, Natalia, @toriningen, Ilya Kalinin
При поддержке Золота Бородача
источник

DD

David Dale in Natural Language Processing
Спасибо! Эта модель хороша, но она в длинный текст не вставляет точки (ну или делает это очень неохотно), а для моих целей нужно в первую очередь в длинном полотне текста находить границы предложений.
Посоветуешь какую-то модель для этой задачи?
источник

МВ

Марк Верхотуров... in Natural Language Processing
Всем привет! Подскажите, пожалуйста, хорошую предобученную  модель, на русскоязычном тексте, Word2Vec.
источник

AZ

Alexandra Zh in Natural Language Processing
неа, но вроде как есть достаточно много хороших решений, https://github.com/sviperm/neuro-comma например
источник

AZ

Alexandra Zh in Natural Language Processing
а, увидела, что николай там выше то же самое сбросил)
источник