Size: a a a

2018 June 16

GC

Great Cheese Wall in comput.math
С холмами даже в чем то лучше, так как есть методы, которые как бы добавляют "инерцию" шарику, чтоб он мог перескочить локальный минимум и все такое
источник

V🇺

Vladislav 🇺🇸🚜🇷🇺 in comput.math
Anton Burkin
потом конечно рассмотрю по ближе, что бы лучше понимать, как избегать оверфиттинга.
оверфиттинг - скорее свойство модели, а не метода оптимизации, не?
источник

AB

Anton Burkin in comput.math
Vladislav 🇺🇸🚜🇷🇺
оверфиттинг - скорее свойство модели, а не метода оптимизации, не?
источник

AB

Anton Burkin in comput.math
оверфиттинг на сколько мне объяснили происходит из за того, что в процессе обучения градиент уходит не в тот минимум =)
источник

AB

Anton Burkin in comput.math
но я только начал изучать недавно это дело
источник

V🇺

Vladislav 🇺🇸🚜🇷🇺 in comput.math
Anton Burkin
оверфиттинг на сколько мне объяснили происходит из за того, что в процессе обучения градиент уходит не в тот минимум =)
Сомнительное утверждение, имхо - это как минимум только одна из возможностей
источник

AB

Anton Burkin in comput.math
так что может не так понял человека, объяснявшего мне =)
источник

g

gsomix in comput.math
Можно поиграться, кстати, со спуском и моментами.

https://distill.pub/2017/momentum
источник

AB

Anton Burkin in comput.math
источник

V🇺

Vladislav 🇺🇸🚜🇷🇺 in comput.math
если модель достаточно мощная чтобы просто запомнить ответы на все training examples - это тоже overfitting, например
источник

AB

Anton Burkin in comput.math
Vladislav 🇺🇸🚜🇷🇺
если модель достаточно мощная чтобы просто запомнить ответы на все training examples - это тоже overfitting, например
угу, тоже знаю про это.
источник

V🇺

Vladislav 🇺🇸🚜🇷🇺 in comput.math
все так)
источник

AB

Anton Burkin in comput.math
угу, я просто проорал =)
источник

AB

Anton Burkin in comput.math
на столько жиза
источник

AB

Anton Burkin in comput.math
сижу на работе, меняю алгоримы, количество&размерности слоёв, функции активации/потерь/оптимизации и размерность батча... После чего пялюсь на грифик =)
источник

AB

Anton Burkin in comput.math
и пока что это происходит на 95% рандомно и 5% предположений =)
источник

V🇺

Vladislav 🇺🇸🚜🇷🇺 in comput.math
самое обидное - когда рандомное работает лучше чем по предположениям
источник

AB

Anton Burkin in comput.math
я пока что не совсем понимаю, от чего всё это дело пляшет =)
источник

AB

Anton Burkin in comput.math
базис из книги принял к сведению, но вот не более пока что
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in comput.math
Anton Burkin
и пока что это происходит на 95% рандомно и 5% предположений =)
значит можно заменить тебя на random search
источник