Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 June 06

MC

Makha Cloud in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
А какой алгоритм кластеризации ты выбрал?
источник

OA

Oleg Antonovich in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
В процессе выбора, но не рассматриваю иерархические. Конкретно сейчас остановил взгляд на mean shift
источник

A

Anton in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Смотря на чем основан алгоритм кластеризации? Косинусная мера близости?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Привет, если вместо выключения и включения, сделать "разделить все параметры на 10", а потом "умножить все параметры на 10" (параметры модели естн), равнозначно ли будет это тому, чтобы "уменьшить в бэкпасе магнитуду градиэнтов в 10 раз" ?
источник

ЕТ

Евгений Томилов... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Почитайте про "проклятие размерности". Грубо говоря, чем больше измерений у пространства, тем сложнее разделить в нём точки на кластеры.
источник

П

Павел in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Нет, модель нелинейная.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
таки да, функции активизации. Наверное да.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
подумал чтобы сделать "фейковый" backward, перед ним сохранить градиенты, после него, потом взять разницы (это и есть сколько добавилось (для всех параметров сетки - фор луп parameters().grad_after - parameters().grad_before) разделить разницу на 10, и прибавить, но эта фигня не прокатит с точки зрения autograda похоже.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
как бы вы предложили сделать данное действие короче всего ?
"уменьшить магнитуду градиентов" в определенной части графа ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
а может быть вместо loss.backward(1) (1 дефольтное значение) loss.backward(1/10) ?
источник

EZ

Evgenii Zheltonozhsk... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Пройдись по градиентам и подели их на 10
источник

EZ

Evgenii Zheltonozhsk... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Или определи для них лр в 10 раз меньше
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
там проблема в том, что через одни и те же параметры проходит дважды бэкпес (не я придумал), а мне нужно только в одном из проходов в 10 раз уменьшить магнитуду градиента.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
а если я один и тот же инпут в сетку дам батчом в 2, я получу РОВНО тот же результат ?
Я вдруг подумал, допустим мне надо model(x)=y дважды сделать, но есть дропауты и рандомность, model((x,x))=(y,y'), где y=y' ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
и мне кажется эта тема сработает, так как chain rule начинается с gradient*D_output/... и если дать gradient 1/10 то будет одна десятая градиентов.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
я подумал в сумме так, дам ему дважды инпут (заплачу уменьшением батча в два раза), на один из инпутов сделаю детач, его пропущу backward(-9/10).
чере недетачнутый пропущу backward(1), получится что через голубое (где - девять десятых) пройдет 1/10 градиента, а через все остальное, то есть синее пройдет весь градиент, как вам ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
мне нужен всего лишь POC идеи влияния магнитуды через голубой path, это не деплой если что )))
источник

VB

Vladimir Bazilevich in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Рандомность можно исключить из эксперимента зафиксировав сид
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ну даже с одним сидом y=model(x) и после этого y'=model(x) ведь не гарантирует что y=y' если они один после другого.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
но вот так должно быть одинаково вроде.
источник