Size: a a a

Язык программирования Julia / Julia programming language

2020 April 10

RS

Roman Samarev in Язык программирования Julia / Julia programming language
Тогда, можно будет на Julia создать флинковский вариант декларативного программирования потоковой обработки на кластере типа:

public class FraudDetectionJob {

   public static void main(String[] args) throws Exception {
       StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

       DataStream<Transaction> transactions = env
           .addSource(new TransactionSource())
           .name("transactions");
       
       DataStream<Alert> alerts = transactions
           .keyBy(Transaction::getAccountId)
           .process(new FraudDetector())
           .name("fraud-detector");

       alerts
           .addSink(new AlertSink())
           .name("send-alerts");

       env.execute("Fraud Detection");
   }
}
источник

RS

Roman Samarev in Язык программирования Julia / Julia programming language
новая заметка о Flux
https://sdobber.github.io/FA_LSTNet/
источник

AY

Artem Yurchenko in Язык программирования Julia / Julia programming language
С flux, кстати, какие-то проблемы (по крайней мере у меня). Если в нейронной сети 1 и более скрытый слой, нейронка на выходе всегда будет отдавать NaN, внезависимисти от других параметров
источник

RS

Roman Samarev in Язык программирования Julia / Julia programming language
скорее всего, локальные проблемы. Иначе бы их собственные модели не работали - https://github.com/FluxML/model-zoo
источник

AM

Ali Meres in Язык программирования Julia / Julia programming language
источник

AM

Ali Meres in Язык программирования Julia / Julia programming language
this is the video that I commented
источник

GC

Great Cheese Wall in Язык программирования Julia / Julia programming language
Ali Meres
this is the video that I commented
Thanks for reminding! Hour and half left before the start
источник

AM

Ali Meres in Язык программирования Julia / Julia programming language
you are welcome
источник

AY

Artem Yurchenko in Язык программирования Julia / Julia programming language
Ребята, разбирающиеся в нейронках, видели ли вы данный материал?
источник

AY

Artem Yurchenko in Язык программирования Julia / Julia programming language
источник

AY

Artem Yurchenko in Язык программирования Julia / Julia programming language
Правильно ли из него сделать предположение, что чем больше скрытых слоев - тем лучше точность нейронной сети?
источник

АО

Андрей Оськин in Язык программирования Julia / Julia programming language
И да и нет, так просто это не работает
источник

AY

Artem Yurchenko in Язык программирования Julia / Julia programming language
Андрей Оськин
И да и нет, так просто это не работает
:(
источник

VS

Vladimir Samoylov in Язык программирования Julia / Julia programming language
Не забывайте про "проклятие переобучения" и корнер кейс когда построенная модель может давать 100% точность на обучающей выборке и и 0% на тестовой. С числом скрытых слоев связано не в последнюю очередь
источник

TL

Timur Leonidovich in Язык программирования Julia / Julia programming language
Artem Yurchenko
Правильно ли из него сделать предположение, что чем больше скрытых слоев - тем лучше точность нейронной сети?
гиперпараметризированная сеть сможет выучить более сложные вещи.

и да, чем глубже\шире сеть тем лучшее ее метрики обычно. но тупо стакать слои не всегда работает, как говорят. иногда можно наоборот.


но в общем можно сказать, что если хочется получится более лучшие метрики брутфорсом, то можно увеличить количество параметров сети.
источник

AY

Artem Yurchenko in Язык программирования Julia / Julia programming language
Понял, спасибо за помощь
источник

RS

Roman Samarev in Язык программирования Julia / Julia programming language
лучше сюда - https://www.asimovinstitute.org/news/

там слева снизу есть секция BLOG
источник

TL

Timur Leonidovich in Язык программирования Julia / Julia programming language
Vladimir Samoylov
Не забывайте про "проклятие переобучения" и корнер кейс когда построенная модель может давать 100% точность на обучающей выборке и и 0% на тестовой. С числом скрытых слоев связано не в последнюю очередь
не слышал никогда про проклятие переобучения)))

есть проклятие рамерности)


переобучение, вообще не сильно характерно гиперпараметризированным сетям. при должной регуляризации, конечно же. но даже и без нее, все может работать.

тот же юнет, умеет учиться довольно хорошо на маленьком колве примеров, при этом имея кратно больше параметров, чем видит примерров
источник

KT

Kirill Tsaregorodtsev in Язык программирования Julia / Julia programming language
Вроде есть теорема, что какая-то не очень глубокая сеть может какую угодно функцию аппроксимировать
источник

VS

Vladimir Samoylov in Язык программирования Julia / Julia programming language
"не слышал никогда про проклятие переобучения)))"
Ну это не значит что его нет:)
Собственно все методы/алгоритмы pruning  - про это
источник