Size: a a a

Natural Language Processing

2021 May 13

S

Sasha in Natural Language Processing
ну да, как максимально правильно я точно не могу сказать, но когда я пробовал, результат был очень похож на адекватный
источник

VS

Valera Sarapas in Natural Language Processing
Может есть идея, как поступить?
Есть облако с движком для моделей в формате onnx. Я обучил BertForSequenceClassification и задеплоил. Но сейчас не понимаю как сформировать тенсор и переслать его через API сервиса для получения ответа с предиктином.
источник

RS

Ruslan Sabirov in Natural Language Processing
Добрый день!
Как можно в natasha.Doc изменить один из токенов?

doc = Doc(text)
doc.segment(segmenter)
doc.tokens[0].text += '1'

После выполнения этого кода doc.tokens меняется, а вот doc.text нет. Как обновить и doc.text тоже?
источник

VS

Valera Sarapas in Natural Language Processing
Получается я должен переслать torch.Tensor. А как это сделать не понимаю
источник

A

Andrey in Natural Language Processing
что за облако?..
источник

VS

Valera Sarapas in Natural Language Processing
Watson Machine Learning
источник

A

Andrey in Natural Language Processing
экзотика. не пользовался. но в доках можно пишут и через json.

give it a try. https://www.ibm.com/docs/en/cloud-paks/cp-data/2.1.0?topic=deployment-watson-machine-learning-services#wlmservices__wmlapi
источник

VS

Valera Sarapas in Natural Language Processing
Да, надо сформировать json такого видаЖ
{ "input_data": [{ "fields": [ "message" ],
                               "values": [[ "my tokens" ]]
                              }
                             ]
            }
источник

VS

Valera Sarapas in Natural Language Processing
но я вот не понимаю как токины нужно передавать
источник

VS

Valera Sarapas in Natural Language Processing
Локально работает такой код
inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
outputs = model(**inputs)
источник

VS

Valera Sarapas in Natural Language Processing
вместо "my tokens" я должен переслать что-то, что сойдет вместо **inputs
источник

A

Andrey in Natural Language Processing
щяс дам туповатый совет, но чисто для посмотреть сойдёт. F12 в браузере, вкладка network, и посмотрите payload.

как бы то ни было, тащить токенайзер во фронт какая-то так себе история. должен быть какой-то пайплайн-workaround думаю
источник

AO

Alex Orgish in Natural Language Processing
Для onnx так работать не будет. Нужно передавать те параметры, которые были указаны в аргументе input_names при вызове torch.onnx.export.
Для берта это будет скорее всего input_ids, attention_mask, token_type_ids
источник

VS

Valera Sarapas in Natural Language Processing
payload  я знаю как выглядит. Я его выше привел. но я не понимаю как туда torch.Tensor записать
источник

VS

Valera Sarapas in Natural Language Processing
я при генерации onnx в качестве входа вот такое использовал:
x = torch.ones(1, 128, dtype=torch.int64).to(device)
источник

A

Andrey in Natural Language Processing
никак
источник

VS

Valera Sarapas in Natural Language Processing
onnx  я могу и другой пересоздать и обновить деплой, если это поможет
источник

AO

Alex Orgish in Natural Language Processing
Тогда скорее всего вход передавать как массив токенов [ [101, ... , 102] ] ,  причем размер 1×128 точно должен пройти.
источник

AM

Arseniy Molodeckij in Natural Language Processing
всем привет
кто знает rule-based синтаксические парсеры, а не на нейронках?
источник

SS

Sergey Sikorskiy in Natural Language Processing
AOT, как минимум …
источник