Из-за особенностей алгоритма обратной распространения ошибки, нужно считать значение производной по формуле, вроде такакая: dx = (1-x^2). Она работает только на маленьких значениях(дробях). Пускай кто-то поправит, если я херню сказонул) Ну дроби всегда можна как-то семулировать, но это уже не простое решение.
Из-за особенностей алгоритма обратной распространения ошибки, нужно считать значение производной по формуле, вроде такакая: dx = (1-x^2). Она работает только на маленьких значениях(дробях). Пускай кто-то поправит, если я херню сказонул) Ну дроби всегда можна как-то семулировать, но это уже не простое решение.
Да, понимаю. Оттого и коэффициенты у обученной сети едва отличаются от единицы.
В вот запускать на каком-то микроконтролере может что-то и выйдет.
Да, именно. Думал о реализации на сях и запуска параллельно на нескольких дешманских МК, либо эмуляция на аналоговых элементах (но там очень сложная дичь получается даже для простого нейрона), либо на ПЛИС пробовать. Вариант с сотней МК по 20 центов пока что выглядит самой многообещающей.
Извините за нубский вопрос, но нигде не смог найти, и решил спросить тут
— можно ли в Sequential модели сделать так, чтобы после каждой эпохи, перед следующей, происходил shuffle трен. базы? Может есть какой-то параметр в model. compile()?
Извините за нубский вопрос, но нигде не смог найти, и решил спросить тут
— можно ли в Sequential модели сделать так, чтобы после каждой эпохи, перед следующей, происходил shuffle трен. базы? Может есть какой-то параметр в model. compile()?
Не знаю как в керасе, но в торче за это отвечает класс датасета а не нейронка...
Извините за нубский вопрос, но нигде не смог найти, и решил спросить тут
— можно ли в Sequential модели сделать так, чтобы после каждой эпохи, перед следующей, происходил shuffle трен. базы? Может есть какой-то параметр в model. compile()?
В рекуррентной, насколько я понял, для нейрона может существовать обратная связь со своей АЧХ и ФЧХ (регулировка амплитуды воздействия или же задержки). Со сверточными совсем беда, их плохо понимаю и оставил напоследок.
Но, грубо говоря, если смоделировать отдельный базовый нейрон (сумма произведений + нелинейная функция активации), то на базе такой упрощенной модели можно составить сеть в общем-то любого масштаба и почти любой архитектуры (за исключением сверточной). Верен ли этот тезис?
Тезис верен, и для сверточных сетей он тоже верен. Просто там не каждый нейрон связан с каждым, а группа нейронов с предыдущего слоя с одним в следующем.
Всем привет! Подскажите пожалуйста, какое железо нужно для анализа больших данных? Датасет около 50-70 гигов, задачи: очистка, классификация, построение графа и визуализация. Может есть облачные варианты или можно на vps это запустить?
Всем привет! Подскажите пожалуйста, какое железо нужно для анализа больших данных? Датасет около 50-70 гигов, задачи: очистка, классификация, построение графа и визуализация. Может есть облачные варианты или можно на vps это запустить?