Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 April 03

AA

Adib Aka in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Всем привет, я только погружаюсь в МЛ, нужна помощь ветеранов.
Я написал шашки (пока без GUI), хочу обучить нейронку:
на вход подавалась бы текущая позиция, а на выходе нейронка выдавала бы лучший ход из возможных.
Проблема в том, что узнать какой ход был хорошим (даже не лучшим) или плохим можно будет только по факту победы или проигрыша одного из игроков, а ещё бывают и ничейные ситуации (то есть продолжительность партии СИЛЬНО вариативна - от 15 ходов и до 100 (примерно))
Я пока сейчас использую numpy....
тензорфлоу и керасы сейчас пока боюсь использовать.
Посоветуйте пожалуйста:
1) какой алгоритм использовать
2) сколько партий нужно будет дать сыграть чтоб нейронка нормально обучилась?
3)Можно ли это сделать на домашнем компе?
источник

AA

Adib Aka in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Adib Aka
Всем привет, я только погружаюсь в МЛ, нужна помощь ветеранов.
Я написал шашки (пока без GUI), хочу обучить нейронку:
на вход подавалась бы текущая позиция, а на выходе нейронка выдавала бы лучший ход из возможных.
Проблема в том, что узнать какой ход был хорошим (даже не лучшим) или плохим можно будет только по факту победы или проигрыша одного из игроков, а ещё бывают и ничейные ситуации (то есть продолжительность партии СИЛЬНО вариативна - от 15 ходов и до 100 (примерно))
Я пока сейчас использую numpy....
тензорфлоу и керасы сейчас пока боюсь использовать.
Посоветуйте пожалуйста:
1) какой алгоритм использовать
2) сколько партий нужно будет дать сыграть чтоб нейронка нормально обучилась?
3)Можно ли это сделать на домашнем компе?
я уже использовал q-learning, в разных вариантах, линейную регрессию, и мне кажется, что я - либо СЛИШКОМ рано заканчиваю обучение, либо стоит побробовать градиентный спуск, но с ним - не понятно как вознаграждать нейронку учитывая при этом количество ходов до победы
источник

AG

Andrei Grinenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Думаю, шибко сложную задачу для самообучения взял.
источник

AG

Andrei Grinenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Нейронки такие решают, но оч непростым образом.
источник

AA

Adib Aka in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Andrei Grinenko
Думаю, шибко сложную задачу для самообучения взял.
даааааа? 😳
это СЛИШКОМ сложно???
источник

AG

Andrei Grinenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Угу
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Adib Aka
я уже использовал q-learning, в разных вариантах, линейную регрессию, и мне кажется, что я - либо СЛИШКОМ рано заканчиваю обучение, либо стоит побробовать градиентный спуск, но с ним - не понятно как вознаграждать нейронку учитывая при этом количество ходов до победы
А цель именно нейронкой? Для шахмат есть таблицы Налимова. Нет ли чего похожего для шашек?
источник

AG

Andrei Grinenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Adib Aka
даааааа? 😳
это СЛИШКОМ сложно???
Именно по описанным тобой причинам.
источник

AG

Andrei Grinenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Циферки пораспознавай. Это просто.
источник

AA

Adib Aka in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ivan
А цель именно нейронкой? Для шахмат есть таблицы Налимова. Нет ли чего похожего для шашек?
я не волшебник, я только учусь, но цель написания нейронки - именно НАУЧИТСЯ писать нейронки
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Adib Aka
я не волшебник, я только учусь, но цель написания нейронки - именно НАУЧИТСЯ писать нейронки
Я понял. Тогда можно циферки пораспознавать или котиков
источник

AA

Adib Aka in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ivan
Я понял. Тогда можно циферки пораспознавать или котиков
пфффф это не интересно, если честно...
всё уже до меня написали и распознали... - поэтому(!) не интересно, хотел именно АИ для шашек сварить
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
А шашки-самоиграйка как по мне слишком сложно для ненастоящего волшебника
источник

AG

Andrei Grinenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ivan
Я понял. Тогда можно циферки пораспознавать или котиков
+1
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Adib Aka
пфффф это не интересно, если честно...
всё уже до меня написали и распознали... - поэтому(!) не интересно, хотел именно АИ для шашек сварить
Тогда я бы начал с чтения paper’ов про AlphaGo. Чтоб ужаснуться
источник

AG

Andrei Grinenko in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ivan
Тогда я бы начал с чтения paper’ов про AlphaGo. Чтоб ужаснуться
+1
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Я понимаю, хочется всего и сразу. Но чтоб начать бегать надо научиться ползать
источник

AA

Adib Aka in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ivan
Тогда я бы начал с чтения paper’ов про AlphaGo. Чтоб ужаснуться
да, я читал что они там такие вычислительные мощности подключали, но разница в том что они правилам(!) учили, а я - явно прописал.
Поэтому думал, может получится что-то сделать
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
друзья, в numpy можно ли конструкции такого вида выразить как-то короче?


np.repeat(X[:, np.newaxis], axis=1, repeats=Y)
np.repeat(X[:, :, np.newaxis], axis=2, repeats=Y)
np.repeat(X[:, :, :, np.newaxis], axis=3, repeats=Y)


суть в том, чтобы из [ 1, 2, 3 ] сделать
[ [ 1, 1, 1, 1 ],
 [ 2, 2, 2, 2 ],
 [ 3, 3, 3, 3 ] ]
источник

∫(Dave)dx = ( ͡° ͜ʖ ... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ну, я в синтаксисе нампая не очень, но вдруг моя идея будет полезной..

Ты можешь создать матрицу, в которой будешь заполнять каждый ряд n-м числом из своего вектора

То есть, перебираешь вектор в цикле и заполняешь ряд матрицы текущим значением i
источник