tensorflow入れて色々遊んでたところ山岡さんと言う方のblogに行きついて以下のネタを試してみた。動機はこの方とほぼ同じ。違うのはGPUの負荷テストのようなノリであることと機械学習の学習が未熟であること。それにchainer初心者であること。
chainerのインストールはtensorflowほどの苦労はなくさっくり入った。mnistをサンプルに回した後,上記ネタをgithubから落としてざっくり回してみたら意外にすんなり学習してくれた。元ネタblogだと0.25程度で頭打ちな感じだが,うちでは0.35付近まで行った。(但しGTX1060で20時間ほどかかる&要メモリ32GB)
うちではデータベースをスクレイピングするのが面倒だったので,floodgateから1年分の棋譜アーカイブをダウンロードした。8万局ほどある。棋譜の品質は知らない。
また,機械学習データとしては定跡化されている序盤と探索でミスの出ない終盤を20手ずつ除外している。序盤と終盤は効果が無いというよりは機械学習である意味が薄いという意味である。
もうちょいニューラルネットワークの構成を考えて充分な学習をさせれば,山本さんの言うような5割という数字が出るのかもしれない。