Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 February 21

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Спасибо
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
вопрос:
Есть модель, которая в сумме состоит из нескольких моделей, соответствующих каждому из этих пунктов.
К примеру, я использую:
TPS-ResNet-Bi-LSTM-Attn.

Эта модель в изначальной авторской версии тренировалась для распознавания слов, поэтому ее инпут был слова с лейбелами.

У меня была идея попробовать натренировать модель с буквами (тогда в целом Bi-LSTM имеет мало смысла, кроме как для букв состоящих из нескольких символов с разрывом, типо например на русском буквы "ы",так как есть последовательность внутри одного символа, для чего и дан Bi-LSTM = для последовательностей),
и после попробовать ивалюировать на словах (одно или два слова на картинку, вместо одной буквы на тренинге).

Результат мини-эксперимента:
Натренировал модель до около 70% точности на буквах.

Запустил на слова и получил:
1. на каждое слово - предикция одна буква, в общем не то, что хотелось.

Теперь мое понимание результата.
1. Модель видела только буквы в отдельности, то есть Attention практически атрофированный, Bi-LSTM
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Bi-LSTM тоже не научился распределять последовательности буквы (его никто этому не учил, так как я поставил эксперимент).
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
эксперимент изначально провальный по логике, или тут можно что-то придумать, чтобы модель училась распознавать буквы, и смогла потом распознавать буквы в словах ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Или просто модель недотренированная, это была мини-тренировка, всего 200 итераций, что около 7 ипоков, учитывая размер дата сэта?
источник

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ребят, а как обосновать размер выборки ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
k k
Ребят, а как обосновать размер выборки ?
эмпирически
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
эксперимент изначально провальный по логике, или тут можно что-то придумать, чтобы модель училась распознавать буквы, и смогла потом распознавать буквы в словах ?
в контексте именно этой модели ?
То есть другую модель с другой схемой архитектуры по сути нужна, да ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
в контексте именно этой модели ?
То есть другую модель с другой схемой архитектуры по сути нужна, да ?
ну либо в моем случае во первых не нужен особо Bi-LSTM. во вторых, дата сет буквы нужно сделать таким, чтобы буквы были разбросаны в локациях, чтобы Attention научился работать.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
не знаю, все равно до конца в голове не складывается.
Вот такая схема, если натренировать с буквами, какое у вас было бы ожидание, сработает на предикции слов или нет ?
источник
2021 February 22

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ребят, я понял что если значение меньше чем табличное , то нулевую гипотезу могу отклонить ... А как сформулировать нулевую гипотезу ? Я ведь могу поставить слово НЕ , и тогда отклоню противоположное по смыслу ..хм..спать наверное пора..
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
k k
Ребят, я понял что если значение меньше чем табличное , то нулевую гипотезу могу отклонить ... А как сформулировать нулевую гипотезу ? Я ведь могу поставить слово НЕ , и тогда отклоню противоположное по смыслу ..хм..спать наверное пора..
Нулевая гипотеза, это та гипотеза, при которой распределение, с которым сравниваются данные - ожидаемое.

Например, если ты проверяешь нулевую гипотезу, что разницы между двумя группами клиентов нету, то ты можешь сопоставить разность групповых средних с нормальным/стьюдентовым распределением с нулевым матожиданием (и хитро высчитанной дисперсией). И отклоняешь нулевую гипотезу, если эта разность попала в далёкий хвост этого распределения.
источник

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
David Dale
Нулевая гипотеза, это та гипотеза, при которой распределение, с которым сравниваются данные - ожидаемое.

Например, если ты проверяешь нулевую гипотезу, что разницы между двумя группами клиентов нету, то ты можешь сопоставить разность групповых средних с нормальным/стьюдентовым распределением с нулевым матожиданием (и хитро высчитанной дисперсией). И отклоняешь нулевую гипотезу, если эта разность попала в далёкий хвост этого распределения.
мм...
источник

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ладно..
источник

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Наверное ещё последний вопрос на вечер, не посчитайте меня троллем пожалуйста, но реально не могу понять нормальное ли распределение или нет в моем примере
источник

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Не очень похоже на нормальное, а что?
источник

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
похоже на нормальное, потому что самое верхнее по середине, но справа жирная фигня какая-то , не пойму, то ли нормальное то ли ненормальное
источник

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
David Dale
Не очень похоже на нормальное, а что?
Ок)
источник