Size: a a a

Язык программирования Julia / Julia programming language

2019 February 27

KT

Kirill Tsaregorodtsev in Язык программирования Julia / Julia programming language
Ну видимо до 1.0 было актуально, а сейчас уже решили, что никому ничего не надо доказывать, сами возьмут кому надо, а кому не надо — их бенчмарками не переубедить никакими
источник

KT

Kirill Tsaregorodtsev in Язык программирования Julia / Julia programming language
Гранты вот какие-то даже дают на развитие языка и экосистемы
источник

g

gsomix in Язык программирования Julia / Julia programming language
Но ситуация с CUDA пока мне не понятна. :)
источник

g

gsomix in Язык программирования Julia / Julia programming language
Непонятно, что измеряли и как. Но график из статьи мне кажется более правдоподобным.
источник

g

gsomix in Язык программирования Julia / Julia programming language
Может какие-то инфраструктурные вещи играют роль? LLVM везде одинаковый. Откуда разница больше, чем в процент? :)
источник

g

gsomix in Язык программирования Julia / Julia programming language
Kirill Tsaregorodtsev
Гранты вот какие-то даже дают на развитие языка и экосистемы
Julia в NumFocus, как и большая часть питоньей вычислительной экосистемы.
источник

GC

Great Cheese Wall in Язык программирования Julia / Julia programming language
gsomix
Julia в NumFocus, как и большая часть питоньей вычислительной экосистемы.
на GSoC они в этом году чет раздельно
источник

g

gsomix in Язык программирования Julia / Julia programming language
Это нормально.
источник

g

gsomix in Язык программирования Julia / Julia programming language
Anatoly Levenchuk
Там команда, которая это всё пропахивала, работала в тесном контакте с основной командой компиляторщиков Julia.
А команда — это, видимо, тот один человек, который поддерживает CUDAnative.jl? 🙃
источник

VG

Viktor G. in Язык программирования Julia / Julia programming language
От CUDA там инженеры NVIDIA сотрудничают, по-моему. Поэтому Cu- пакеты в хорошем состоянии, а с общими типа GPUArrays - не все так круто.
источник

g

gsomix in Язык программирования Julia / Julia programming language
Viktor G.
От CUDA там инженеры NVIDIA сотрудничают, по-моему. Поэтому Cu- пакеты в хорошем состоянии, а с общими типа GPUArrays - не все так круто.
Они разрабатываются (кроме CuArrays.jl) одним человеком.
источник

VG

Viktor G. in Язык программирования Julia / Julia programming language
Тем временем, я поигрался и оптимизировал самописную нейронку из вот этого вопроса: https://stackoverflow.com/questions/49719076/macos-python-with-numpy-faster-than-julia-in-training-neural-network
На моей машине прогоняет одну эпоху за 7 секунд после оптимизаций, предложенных в ответе, и за 0.6 секунд после дополнительных оптимизаций с матричными операциями для батча. Думаю опубликовать где-нибудь разбор этого примера, кому-то это будет интересно?
источник

АО

Андрей Оськин in Язык программирования Julia / Julia programming language
Можно небольшую статью во что-то типа medium написать и потом в julia blog опубликовать.
источник

g

gsomix in Язык программирования Julia / Julia programming language
Viktor G.
Тем временем, я поигрался и оптимизировал самописную нейронку из вот этого вопроса: https://stackoverflow.com/questions/49719076/macos-python-with-numpy-faster-than-julia-in-training-neural-network
На моей машине прогоняет одну эпоху за 7 секунд после оптимизаций, предложенных в ответе, и за 0.6 секунд после дополнительных оптимизаций с матричными операциями для батча. Думаю опубликовать где-нибудь разбор этого примера, кому-то это будет интересно?
А код опубликован?
источник

KT

Kirill Tsaregorodtsev in Язык программирования Julia / Julia programming language
Недавно обновленный драфт по мат статистике в Julia выпустили
источник

KT

Kirill Tsaregorodtsev in Язык программирования Julia / Julia programming language
Сам пока не читал
источник

KT

Kirill Tsaregorodtsev in Язык программирования Julia / Julia programming language
источник

GC

Great Cheese Wall in Язык программирования Julia / Julia programming language
Julia on Google TPU: Shakespeare RNN (Score: 103+ in 3 hours)

Link: https://readhacker.news/s/3XH2D
Comments: https://readhacker.news/c/3XH2D
источник

GC

Great Cheese Wall in Язык программирования Julia / Julia programming language
там сразу на рабочую тетрадь ссылка
источник

GC

Great Cheese Wall in Язык программирования Julia / Julia programming language
StefanKarpinski 1 hour ago [-]

In TensorFlow one doesn't write Python code and run it on a G/TPU, one writes Python code that uses an API to construct a TensorFlow graph computation which is compiled and runs on the G/TPU. It's really a completely separate programming language with different semantics and a totally separate runtime hiding behind a Python API. This is why you can't use any of Python's normal libraries, you have to use TensorFlow libraries.
"Julia runs on GPUs" actually means that you write Julia code and it is compiled to natively run on GPUs [1]. Similarly, this post is about writing Julia code and compiling it to run natively on TPUs, not calling some predefined TPU library. Yes, of course you _can_ call libraries that are compiled for GPUs and TPUs—as you can in Python or any other language—but in Julia, nearly arbitrary user code can be compiled and run on GPUs and TPUs. The major restriction on GPUs is that you cannot do dynamic allocation, so you need to write non-allocating Julia code, but that's common requirement for high-performance code anyway.

[1] https://github.com/JuliaGPU/CUDAnative.jl
источник