Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 March 22

М

Манкурт Кобейн... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
@Evgeniia_Orlova
у кого как
Если все будут писать "просто рабочий код" в большом проекте - довольно скоро его станет о-очень сложно поддерживать
источник

@

@Evgeniia_Orlova in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Манкурт Кобейн
Если все будут писать "просто рабочий код" в большом проекте - довольно скоро его станет о-очень сложно поддерживать
аргументы?)
источник

М

Манкурт Кобейн... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
@Evgeniia_Orlova
аргументы?)
А это не очевидно? Попробуйте всякий раз забивать на те же принципы solid и общий кодстайл, и удивитесь, что из этого получится через месяц
источник

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ребят, если определенный файл имеет структуру, то есть ли какое-то готовое решение, которое сможет создавать мне файлы такой же структуры ?
источник

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Подскажите пожалуйста
источник

@

@Evgeniia_Orlova in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Манкурт Кобейн
А это не очевидно? Попробуйте всякий раз забивать на те же принципы solid и общий кодстайл, и удивитесь, что из этого получится через месяц
solid причем
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
@Evgeniia_Orlova
solid причем
плохой код будет нетестируемым. хороший код может быть протестирован с произвольно мелкой гранулярностью, причем параллельно, никак не мешая другим тестируемым потокам, без сайдэффектов
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
solid тут при том, что solid - один из многих принципов, которые делают код чуть лучше, и облегчают споры по поводу его эффектов
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
еще изучение какого-нибудь чистого фп языка прочищает мозги в плане того, как писать хороший тестируемый код, т.к. добавляет целый ворох новых понятий о том, что такое хорошо
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
да, писать становится сложнее, но это окупается
источник

М

Манкурт Кобейн... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
@Evgeniia_Orlova
solid причем
Если вы пишите не в ооп парадигме - ни при чём. Если же в ней, то предлагаю вам пойти на эксперимент и подзабить на эти принципы. А ещё лучше: сознательно их местами нарушить. Уверяю, понимать написанный вами код станет кратно сложнее. А если такие вольности будет позволять себе каждый разработчик на вашем проекте - спагетти потом не разгребёте
источник

М

Манкурт Кобейн... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
toriningen
еще изучение какого-нибудь чистого фп языка прочищает мозги в плане того, как писать хороший тестируемый код, т.к. добавляет целый ворох новых понятий о том, что такое хорошо
Неистово плюсую по поводу ФП. Пробовать иные парадигмы крайне важно
источник

@

@Evgeniia_Orlova in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
toriningen
еще изучение какого-нибудь чистого фп языка прочищает мозги в плане того, как писать хороший тестируемый код, т.к. добавляет целый ворох новых понятий о том, что такое хорошо
👍🏻
источник

TN

Timofey Naumenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Unknown T.
Добрый день!
Решил для своего пет проекта попробовать взять задачу распознавания произношения. Типа человек произносит слово на английском, я хочу распознать ошибки и качество.

Подскажите, пожалуйста, с чего вообще стоит начать? Я видел примеры проектов по «обычному» распознаванию речи. Возможно стоит подойти к этому вопросу с той же стороны, только распознавать не буквы / слова, а фонемы и их продолжительность, после чего сравнивать их с эталоном?

Буду рад услышать любые рекомендации. Может вообще уже есть такие решения и можно посмотреть, как это делается.
Почему начать решили именно с этого?
источник

TN

Timofey Naumenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
(если это первый проект)
источник

UT

Unknown T. in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Timofey Naumenko
Почему начать решили именно с этого?
Не первый проект, но таких серьезных ещё не делал, да. Хочу все таки разобраться с этим.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Danil Kalinin
Можно сохранять в .png и открывать потом через sshfs
Можно поднять jupyter и действительно отображать картинки через него
в тетради все же удобнее в общем потоке кода и описаний и т.д.
источник
2021 March 23

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
если я в коде сознательно не распределял по разным gpu разные составляющие модели, то в целом либа торча этим сама не занимается ?
То есть если у меня 3 карты, моя ответственность распределять по ним модели и парарельностью заниматься ?
Или какие-то автоматическое разумное распределение для удобства существует ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ну и там, если одна карта заполнена, миграция данных и т.д.
есть в торче подобная ютилизация, или предоставлены все инструменты для юзера (типо распределение по нумеризации куд и.т.д), чтобы этим пользоваться, но кодить это надо ?
источник

АК

Андрей Копылов... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Unknown T.
Добрый день!
Решил для своего пет проекта попробовать взять задачу распознавания произношения. Типа человек произносит слово на английском, я хочу распознать ошибки и качество.

Подскажите, пожалуйста, с чего вообще стоит начать? Я видел примеры проектов по «обычному» распознаванию речи. Возможно стоит подойти к этому вопросу с той же стороны, только распознавать не буквы / слова, а фонемы и их продолжительность, после чего сравнивать их с эталоном?

Буду рад услышать любые рекомендации. Может вообще уже есть такие решения и можно посмотреть, как это делается.
Да, наверное нужно в сторону ASR смотреть. Модели обычно выдают метрику, насколько они уверены в правильности распознавания. И далее уже от механики зависит. Если человек читает заранее подготовленный текст, то просто сравнивать с ним результат распознавания. Если это произвольная речь, то взять например BERT и проверять слова, которые неуверенно распознанны, подходят ли они вообще по смыслу в контексте предложения.  Ну и какую-то свою обощенную метрику сделать: если слово распозналось правильно, но метрика уверенности распознавания низкая - то это среднее качество произношения.. Если слово совсем не то - то низкое качество произношения.
Задача вроде не сложная, сейчас много крутых моделей в свободном доступе, тем более на английском, все модели предобучены, взять и слепить.
источник