Size: a a a

Data Science Kazakhstan (DS/ML kz)

2020 May 09

TC

Tasty Cake in Data Science Kazakhstan (DS/ML kz)
Iv
так мыж реал-тайм вам сюда транслировали прогресс
Да, я помню. С замиранием следил что будет дальше и как отчёт - статья. Поэтому мое восхищение
источник

A

Aykhan in Data Science Kazakhstan (DS/ML kz)
Tasty Cake
Класс. Уважение таким компаниям и людям кто деливерил такие проекты.
Спасибо)
источник

B

Bauyrzhan in Data Science Kazakhstan (DS/ML kz)
Всем привет,кто знает как можно улучшить prediction accuracy в сентиментальном анализе?
источник

I

Iv in Data Science Kazakhstan (DS/ML kz)
посмотреть Muppet show
источник

NK

ID:0 in Data Science Kazakhstan (DS/ML kz)
Переслано от Kudaibergen Urinbaye...
источник
2020 May 10

B

Bauyrzhan in Data Science Kazakhstan (DS/ML kz)
Кто знает как можно увеличить лимит на запрос в гугле и максимум сколько?
источник

A

Aykhan in Data Science Kazakhstan (DS/ML kz)
Я когда парсил с гугл сколарс включал впн. Не знаю, на сколько полезно
источник

Х

Хэнк in Data Science Kazakhstan (DS/ML kz)
Доброе утро, ребята. Являясь новичком в сфере DS, выложил свою первую работу в Kaggle, Data Visualization с данными о COVID-19. Буду признателен если оцените мою работу, хочу получить реальный отзыв. Критика приветствуется, даже обязательно) https://www.kaggle.com/louter/covid-19-data-visualization-10-05-2020
источник

NK

ID:0 in Data Science Kazakhstan (DS/ML kz)
Переслано от Хэнк
Доброе утро, ребята. Являясь новичком в сфере DS, выложил свою первую работу в Kaggle, Data Visualization с данными о COVID-19. Буду признателен если оцените мою работу, хочу получить реальный отзыв. Критика приветствуется, даже обязательно) https://www.kaggle.com/louter/covid-19-data-visualization-10-05-2020
источник

S

Sneddy in Data Science Kazakhstan (DS/ML kz)
Решил фасилитировать подобного рода деятельность. Успехов!
источник

Х

Хэнк in Data Science Kazakhstan (DS/ML kz)
Спасибо большое, очень рад)
источник

RA

Renat Alimbekov in Data Science Kazakhstan (DS/ML kz)
ID:0
Переслано от Хэнк
Доброе утро, ребята. Являясь новичком в сфере DS, выложил свою первую работу в Kaggle, Data Visualization с данными о COVID-19. Буду признателен если оцените мою работу, хочу получить реальный отзыв. Критика приветствуется, даже обязательно) https://www.kaggle.com/louter/covid-19-data-visualization-10-05-2020
Хорошая работа, предложения: графики рековери, смерти и инфицированных сделать в один. Пай чарты имхо не лучший способ визуализировать информацию. Я б заменил
источник

Х

Хэнк in Data Science Kazakhstan (DS/ML kz)
Renat Alimbekov
Хорошая работа, предложения: графики рековери, смерти и инфицированных сделать в один. Пай чарты имхо не лучший способ визуализировать информацию. Я б заменил
Спасибо, учту)
источник

ZD

Zhandar Dias in Data Science Kazakhstan (DS/ML kz)
Всем привет.
Есть кто участвует в онлайн кейс стади по дата сайнс? По программе цифровое лето
источник

A

Aykhan in Data Science Kazakhstan (DS/ML kz)
Хэнк
Доброе утро, ребята. Являясь новичком в сфере DS, выложил свою первую работу в Kaggle, Data Visualization с данными о COVID-19. Буду признателен если оцените мою работу, хочу получить реальный отзыв. Критика приветствуется, даже обязательно) https://www.kaggle.com/louter/covid-19-data-visualization-10-05-2020
Классно, апвоутнул
источник

N

Nurzhan in Data Science Kazakhstan (DS/ML kz)
#hello Я Нуржан, адроид разработчик.

Несколько месяцев назад увлекся Deep Learning-гом. Решил постигать азы через Keras. Мне была интересна тема синтеза речи, в частности хотел попробовать синтезировать казахскую речь. Поковырял tacotron-ы, wavenet, и еще несколько моделей. Они мне показались сложными для понимания. Затем наткнулся на имплементацию этой модели https://arxiv.org/abs/1710.08969 (основана только сверточных сетях) на чистом tensorflow 1.3 и решил переписать его под версию 2.1, но уже через Keras API. Таким образом убить 2 зайца: изучить сам tensorflow, ну и Keras.

Логика построения глубоких нейронных сетей на Керас мне очень понравилась. Достаточно понятно для новичка.
Сперва поиграл с английским датасетом Линды Джонсон. Этот датасет весьма большой (24 часа). Из-за специфики английского языка он и должен быть большим, так как в их словах буквы произносятся (или не произносятся) в зависимости от того, где и как они расположены (ну Вы сами знаете). Чтобы нейронку этому научить применяют механизм attention (подробнее есть в доках). Грубо говоря, этот механизм "указывает", как звучит та или иная буква (тут я могу ошибаться).

Ко мне закралась идея, что казахскому языку потребуется гораздо меньшие датасет и время на обучение. Решил пробовать.
Создал небольшой датасет (1 ч. 25 мин.) и прогнал через сеть. Так и есть! Чтобы сносно (на 3) говорить на казахском языке нейронке требуется около часа тренировки на GPU Tesla T4. Конечно все зависит от качества датасета.


Послушать примеры можно в клетке Synthesyze в самом низу.


Я не спец в питоне, так что архитектура кода так себе )
https://colab.research.google.com/drive/1iEpFDknQBJYlEmYB4AP0cWZXd4VlQbVl?usp=sharing
источник

S

Sagimbayev Zhuldyzzh... in Data Science Kazakhstan (DS/ML kz)
источник

S

Sagimbayev Zhuldyzzh... in Data Science Kazakhstan (DS/ML kz)
Круто вышло
источник

I

Iv in Data Science Kazakhstan (DS/ML kz)
Nurzhan
#hello Я Нуржан, адроид разработчик.

Несколько месяцев назад увлекся Deep Learning-гом. Решил постигать азы через Keras. Мне была интересна тема синтеза речи, в частности хотел попробовать синтезировать казахскую речь. Поковырял tacotron-ы, wavenet, и еще несколько моделей. Они мне показались сложными для понимания. Затем наткнулся на имплементацию этой модели https://arxiv.org/abs/1710.08969 (основана только сверточных сетях) на чистом tensorflow 1.3 и решил переписать его под версию 2.1, но уже через Keras API. Таким образом убить 2 зайца: изучить сам tensorflow, ну и Keras.

Логика построения глубоких нейронных сетей на Керас мне очень понравилась. Достаточно понятно для новичка.
Сперва поиграл с английским датасетом Линды Джонсон. Этот датасет весьма большой (24 часа). Из-за специфики английского языка он и должен быть большим, так как в их словах буквы произносятся (или не произносятся) в зависимости от того, где и как они расположены (ну Вы сами знаете). Чтобы нейронку этому научить применяют механизм attention (подробнее есть в доках). Грубо говоря, этот механизм "указывает", как звучит та или иная буква (тут я могу ошибаться).

Ко мне закралась идея, что казахскому языку потребуется гораздо меньшие датасет и время на обучение. Решил пробовать.
Создал небольшой датасет (1 ч. 25 мин.) и прогнал через сеть. Так и есть! Чтобы сносно (на 3) говорить на казахском языке нейронке требуется около часа тренировки на GPU Tesla T4. Конечно все зависит от качества датасета.


Послушать примеры можно в клетке Synthesyze в самом низу.


Я не спец в питоне, так что архитектура кода так себе )
https://colab.research.google.com/drive/1iEpFDknQBJYlEmYB4AP0cWZXd4VlQbVl?usp=sharing
Прикольно, а твоих сгенерированных примеров не было в трейне?
источник

RA

Renat Alimbekov in Data Science Kazakhstan (DS/ML kz)
Nurzhan
#hello Я Нуржан, адроид разработчик.

Несколько месяцев назад увлекся Deep Learning-гом. Решил постигать азы через Keras. Мне была интересна тема синтеза речи, в частности хотел попробовать синтезировать казахскую речь. Поковырял tacotron-ы, wavenet, и еще несколько моделей. Они мне показались сложными для понимания. Затем наткнулся на имплементацию этой модели https://arxiv.org/abs/1710.08969 (основана только сверточных сетях) на чистом tensorflow 1.3 и решил переписать его под версию 2.1, но уже через Keras API. Таким образом убить 2 зайца: изучить сам tensorflow, ну и Keras.

Логика построения глубоких нейронных сетей на Керас мне очень понравилась. Достаточно понятно для новичка.
Сперва поиграл с английским датасетом Линды Джонсон. Этот датасет весьма большой (24 часа). Из-за специфики английского языка он и должен быть большим, так как в их словах буквы произносятся (или не произносятся) в зависимости от того, где и как они расположены (ну Вы сами знаете). Чтобы нейронку этому научить применяют механизм attention (подробнее есть в доках). Грубо говоря, этот механизм "указывает", как звучит та или иная буква (тут я могу ошибаться).

Ко мне закралась идея, что казахскому языку потребуется гораздо меньшие датасет и время на обучение. Решил пробовать.
Создал небольшой датасет (1 ч. 25 мин.) и прогнал через сеть. Так и есть! Чтобы сносно (на 3) говорить на казахском языке нейронке требуется около часа тренировки на GPU Tesla T4. Конечно все зависит от качества датасета.


Послушать примеры можно в клетке Synthesyze в самом низу.


Я не спец в питоне, так что архитектура кода так себе )
https://colab.research.google.com/drive/1iEpFDknQBJYlEmYB4AP0cWZXd4VlQbVl?usp=sharing
Круто, а я могу ему фразу составить, скормить и он синтезирует?
источник