Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 June 07

EZ

Evgenii Zheltonozhsk... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Пройдись только по весам на которых надо изменить
источник

TN

Timofey Naumenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Если я правильно понимаю, у вас есть 3 вида лосс функций, первый, как я понимаю, это обычный CrossEntropyLoss, второй - это Angular Margin Softmax Loss, третий - что-то еще. Если все так - то можно сделать просто:
predictions = model(inputs)
blue_loss = cross_entropy_loss(inputs, targets)
cyan_loss = am_softmax_loss(inputs, targets)
total_loss = blue_loss + cyan_loss * 0.1
total_loss.backward()
источник

EZ

Evgenii Zheltonozhsk... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
И на них измени
источник

EZ

Evgenii Zheltonozhsk... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
А на тех на которых не надо менять не меняй
источник

EZ

Evgenii Zheltonozhsk... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
они все одинаковые, в графе градиентов они дублируются ))
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
с помощью .view
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
они не разные )) забавный алгоритм )
источник

EZ

Evgenii Zheltonozhsk... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ну не делай так)
источник

EZ

Evgenii Zheltonozhsk... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Продублируй явно веса
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
близко, два вида, один кросс энтропи а второй который как бы состоит из двух факторов, которые как раз если бы можно было легко разделить, то было бы удобно сделать один + другой на 0.1.
источник

TN

Timofey Naumenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Умножь один из факторов на 0.1.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ну вот либо с переписью функции backward с каким нибудь if то град разделить на 10 else как обычно.
Либо иначе, этот фактор проявляется только на части бэкпэса через am loss, он не явный.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
либо через явную дубляцию и копирование сетки и т.д. чего пока избегаю
источник

TN

Timofey Naumenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Давай по-порядку тогда - выход am loss используется где-либо, кроме как в .backward()?

Забавно, то на "Вы" обращаюсь, то на "ты"...
источник

TN

Timofey Naumenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
am loss из этой статьи без модификаций?
https://arxiv.org/abs/1801.05599
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
нет. Но am_loss, его граф градиентов, это и голубой и синий (который проходит там же где зеленый).
А надо градиенты только на голубом в 10 раз умножить. А еще это одни и те же параметры, поэтому .grad/10 двойное влияние даст.
Просто в точре юзеру не дали интерфейс и более того сам граф градиентов не создали как отдельный объект с интерфейсом для BFS, DFS например,
по мне это не самый эффективный способ создать пару .grad и BackFunc(). В таких манипуляциях, которую я хочу сделать немного безтолковая реализация.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
не, Guided-Attention-Infference-Network
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

TN

Timofey Naumenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ладно, в проблему сложно вникнуть сразу, не читая статьи. По идее, torch.autograd.Function может решить практически все кейсы с кастомным беквардом.
источник