Size: a a a

Scalability Camp — распределенный чат [СММщик в отпуске на Бали]

2020 January 16

GG

George Gaál in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
pragus
в го переключимся на io, сне, мьютексах, sync.Cond и каналах
+
источник

TS

Timur Safin in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
источник

A

Alexander in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
pragus
в го переключимся на io, сне, мьютексах, sync.Cond и каналах
Согласен, любой вызов имеющий блокирующую семантику - это точка останова-suspend'а, он же yield()
источник

AB

Aleksandr Borgardt in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Дожили  лучше разрабатывать на с++
источник
2020 January 17

AK

Andrey Kolnoochenko in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Aleksandr Borgardt
@lynxed что брать boost compute или cuda для нового проекта
А у тебя есть необходимость работы на AMD? Я честно говоря если могу в проекте выдвигать требования по железу — всегда предпочту CUDA (а лучше даже через thrust) перед OpenCL.
источник

AK

Andrey Kolnoochenko in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
(Сори за слоупочество и некропостинг))
источник

N

Nikolay in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Alexander
Кстати, Тимур, для следующих баттлов "C++ vs Go" могу посоветовать отличную работу "Improving the Performance of User-level Runtime Systems for Concurrent Applications"(https://uwspace.uwaterloo.ca/handle/10012/13935)
Это защита докторской в университете Уотерлу(Онтарио) от некоего Saman Barghi, он же автор библиотеки https://git.uwaterloo.ca/mkarsten/libfibre
В ней можно найти всё касательно механики сопрограмм со ссылками на множество С/С++-проектов, в том числе есть сравнения с Go.
Основное что оттуда можно подчерпнуть - всё что есть в Go давно(раньше чем появился Go) в том или ином виде реализовано на C++.
Да и у вас в Яндексе, как я понимаю, есть Userver (https://habr.com/ru/company/yandex/blog/474438/) со всеми теми возможностями что даёт Go
Всё реализовано в плюсах, но по факту писать на го на порядок удобнее и, часто, в итоге не сильно медленнее работает
источник

AB

Aleksandr Borgardt in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Andrey Kolnoochenko
А у тебя есть необходимость работы на AMD? Я честно говоря если могу в проекте выдвигать требования по железу — всегда предпочту CUDA (а лучше даже через thrust) перед OpenCL.
Есть задача работать на всем
источник

AB

Aleksandr Borgardt in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Andrey Kolnoochenko
(Сори за слоупочество и некропостинг))
Норм
источник

AK

Andrey Kolnoochenko in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Aleksandr Borgardt
Есть задача работать на всем
Тогда CUDA можно вычеркнуть)
источник

AB

Aleksandr Borgardt in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Идеальный кандидат boost cumpute но у него нету cuda
источник

AB

Aleksandr Borgardt in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Andrey Kolnoochenko
Тогда CUDA можно вычеркнуть)
А почему нет ?
источник

AK

Andrey Kolnoochenko in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Aleksandr Borgardt
А почему нет ?
А CUDA уже бежит на AMD?
источник

AB

Aleksandr Borgardt in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Opencl вроде да
источник

N

Nikolay in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Aleksandr Borgardt
Opencl вроде да
opencl с cuda никак не связан же
источник

N

Nikolay in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
это другая штука
источник

AK

Andrey Kolnoochenko in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Aleksandr Borgardt
Opencl вроде да
OpenCL бежит везде. nVidia, AMD, Даже таргетом CPU можно выбрать.
А вот CUDA – только nVidia. Зато программировать приятней.
источник

AB

Aleksandr Borgardt in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Opencl cpu and gpu in intel and amd разве нет ?
источник

AB

Aleksandr Borgardt in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Andrey Kolnoochenko
OpenCL бежит везде. nVidia, AMD, Даже таргетом CPU можно выбрать.
А вот CUDA – только nVidia. Зато программировать приятней.
А на boost cumpute смотрел ?
источник

AK

Andrey Kolnoochenko in Scalability Camp — распределенный чат [СММщик в отпуске на Бали]
Aleksandr Borgardt
А на boost cumpute смотрел ?
Глянул по твоей ссылке – аналог CUDA thrust, только на OpenCL. Так что должен бежать везде. У nVidia есть (или по крайней мере была) поддержка OpenCL.
источник