Size: a a a

ML Boot Camp Official

2019 December 14

ЕТ

Егор Ткаченко in ML Boot Camp Official
Alex Stone
Я использую http://accord-framework.net/docs/html/T_Accord_Imaging_DocumentSkewChecker.htm
Думаю в opencv есть такой же класс.
Но при углах 45 градусов, не работает
Мне надо плюс минус 3 градуса корректировать
источник

ЕТ

Егор Ткаченко in ML Boot Camp Official
Большие углы я уже реализовал
источник

П

Павел in ML Boot Camp Official
Егор Ткаченко
Большие углы я уже реализовал
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Слушайте, а кто что вообще слышал про регуляризацию весов в DL?

Когда применяется и почему не так распространенно, как в линейных моделях?

Я вот читаю https://arxiv.org/pdf/1802.05957.pdf про spectral normalization, еще в недавней stylegan2 тоже была нормализация весов, аналогичная той, что в работе AlexNet использовалась.
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
@EvgeniyZh, может ты знаешь.
источник

ЕТ

Егор Ткаченко in ML Boot Camp Official
да) я это тоже пробовал
источник

ЕТ

Егор Ткаченко in ML Boot Camp Official
он на слегка зашумленном то пормально определяет, то что то рандомное
источник

ЕТ

Егор Ткаченко in ML Boot Camp Official
+-10
источник

П

Павел in ML Boot Camp Official
Гауссово размытие + adaptive threshold не помогает?
источник

П

Павел in ML Boot Camp Official
плюс можно операциями топологии убрать слишком маленькие объекты
источник

ЕТ

Егор Ткаченко in ML Boot Camp Official
Павел
плюс можно операциями топологии убрать слишком маленькие объекты
там просто линии таблицы есть
источник

ЕТ

Егор Ткаченко in ML Boot Camp Official
и они все портят
источник

П

Павел in ML Boot Camp Official
Тогда детекть линии таблицы с помошью LBP какого-нибудь
источник

П

Павел in ML Boot Camp Official
Как вариант, они тоже об угле могут сказать
источник

П

Павел in ML Boot Camp Official
Егор Ткаченко
и они все портят
источник

П

Павел in ML Boot Camp Official
Егор Ткаченко
и они все портят
источник

K

K-S in ML Boot Camp Official
Дмитрий Симаков
Слушайте, а кто что вообще слышал про регуляризацию весов в DL?

Когда применяется и почему не так распространенно, как в линейных моделях?

Я вот читаю https://arxiv.org/pdf/1802.05957.pdf про spectral normalization, еще в недавней stylegan2 тоже была нормализация весов, аналогичная той, что в работе AlexNet использовалась.
Применяется же вроде, нет?

Просто, видимо, дропауты больше на себя «перетянули одеяло» в вопросе регуляризации
источник

SF

Sergei Fironov in ML Boot Camp Official
Дмитрий Симаков
Слушайте, а кто что вообще слышал про регуляризацию весов в DL?

Когда применяется и почему не так распространенно, как в линейных моделях?

Я вот читаю https://arxiv.org/pdf/1802.05957.pdf про spectral normalization, еще в недавней stylegan2 тоже была нормализация весов, аналогичная той, что в работе AlexNet использовалась.
я делаю и в трансформере тоже есть.
источник

ЕТ

Егор Ткаченко in ML Boot Camp Official
я HoughLinesP нахожу линии, затем считаю их угол каждой  относительно оси х
а потом беру медианное значение от получившегося списка
получается ошибка от  до 0,5 градусов
источник

П

Павел in ML Boot Camp Official
Егор Ткаченко
я HoughLinesP нахожу линии, затем считаю их угол каждой  относительно оси х
а потом беру медианное значение от получившегося списка
получается ошибка от  до 0,5 градусов
А сколько надо +_?
источник