Size: a a a

Natural Language Processing

2020 July 15

D

Den in Natural Language Processing
я его и использую
источник

AI

Andrew Ishutin in Natural Language Processing
источник

D

Den in Natural Language Processing
так стоп, это ж dialogpt
источник

D

Den in Natural Language Processing
он же строго для диалогов
источник

D

Den in Natural Language Processing
сконверть пожалуйста от кефирьича gpt-2
источник

I

I Апрельский... in Natural Language Processing
о. я еще придумал про культуру общения.
обычно оно как: либо бан на денек, либо перманентный. но это слишком радикально. а можно сделать слабое ограничение, но "прогрессирующиее".
за переход границ ограничиваться количество сообщений в минуту: раз в 1/10/60 минут. такое и автоматизировать проще, потому что FP будет неприятно влиять, конечно, но не кардинально. модератор, конечно, тоже нужен будет, чтобы контролировать, но не фулл-тайм.
источник

AI

Andrew Ishutin in Natural Language Processing
Den
сконверть пожалуйста от кефирьича gpt-2
источник

D

Den in Natural Language Processing
см. выше про токенайзер через жопу
источник

D

Den in Natural Language Processing
как вариант ещё можно конвертировать GPT-2 в длинный https://colab.research.google.com/github/allenai/longformer/blob/master/scripts/convert_model_to_long.ipynb

а вообще конечно замечательным бы был вариант GPT-2  на zero-/few-shot
https://huggingface.co/zero-shot/
источник

AP

Alex Peresmeshnik in Natural Language Processing
Господа, а кто подскажет актуальную библиотеку ML для common lisp?
источник

AP

Alex Peresmeshnik in Natural Language Processing
Если говорить про ML на лиспе то можно конечно взять Keras/Tensorflow, и дергать их через тот же py4cl (common lisp) или hylang (реализация лисп на питоне), но хочется чего-то нативного
источник

AP

Alex Peresmeshnik in Natural Language Processing
@aragaer О, какие люди. Напомни ты больше по CL или схеме? :)
источник

A

Aragaer in Natural Language Processing
в данный момент пишу на хаскеле. А между схемой и cl особо не определился. На компе стоит то и другое
источник

N

NaN in Natural Language Processing
Не подскажите есть ли метод в  word2vec, который на вход получает слово, а на выходе выдает список слов, которые чаще всего с ним коррелируют по контексту?
источник

FF

Futorio Franklin in Natural Language Processing
NaN
Не подскажите есть ли метод в  word2vec, который на вход получает слово, а на выходе выдает список слов, которые чаще всего с ним коррелируют по контексту?
источник

N

NaN in Natural Language Processing
Благодарю!
источник
2020 July 16

D

Den in Natural Language Processing
так вы и не сказали ничего про конвертацию/адаптирование. Стоит ли ждать?
источник

A

Alexander in Natural Language Processing
Добрый день! Коллеги, использовал transformers.BertModel для классификации. Сделал эмбединги предложений, забрал от туда [CLS] и отправил в логистическую регрессию (A Visual Guide to Using BERT for the First Time). Вроде все хорошо, теперь хочу сделать Fine-tuning модели и повторить эксперимент. В статьях которые я нашел, тонскую настройку делают для модели BertForSequenceClassification. Есть ли примеры FT для BertModel? Или лучше изначально работать c BertForSequenceClassification?
источник

RB

Radion Bikmukhamedov in Natural Language Processing
источник

A

Alexander in Natural Language Processing
спасибо, буду изучать. Вот бы книжку какую по Bert'у
источник