読者です 読者をやめる 読者になる 読者になる

渋谷で働くSEのブログ

渋谷で働くSEのお粗末なブログです

論文の再現実験:convolution layerをかえてみた

AI 中南米音楽 人工知能 フォルクローレ 論文

layerとかいろいろ変えてみました。

kyosuu1.hatenablog.jp

ちょうど全編で言っていたとおりプログラムをいじってみて、またnetworkの方も変えてみましたが、
1epochに1時間以上かかりそうです。

かけてみたところ、まったく反応がありません…

f:id:kyosuu1:20160911000031p:plain

最初の30秒ではなく、120秒をnetworkにかけるようにプログラムを変えましたが、かなり無理があったようですね。

今すでに1時間ほど経っているのに、0epochすら終わってないです。

これはさすがに無理だったぽいです。

コンピュータのスペック上げたいです(悲鳴)


そしてそして。

私が読んでいた論文は2014年のやつですが、

これよりもさらにnetworkを深くしたものが最近発表されました。

[1605.09507] Deep convolutional neural networks for predominant instrument recognition in polyphonic music


あともう一つ。

midiから自動作曲してくれるオープンソースのmagenta(tensorflow基盤)が出たばかりなのに、
今度はGoogle DeepMindで「WaveNet」という、音声ファイル自動生成のアプリ?を開発したそうです。(こちらは有料か無料かわかりません)

時代を感じますね。

3年前産業界数学スタディーグループに参加したときは、「まさか学生にディープラーニングやらせるわけにはいかないだろう」と言われていました。

普通にR使って、k-meansとかやってた記憶があります。

(途中インフルエンザにかかってしまい、最終日は参加できませんでした)


なのに、今は、マシーンさえちゃんとそろえておけば、自宅でもディープラーニングとか手軽にできてしまいますね。

magentaぐらいなら、普通のノートパソコンで手軽にできちゃいますし。


いろいろ雑談が長くなりました^^


結論…

今のところは8割ぐらいの正確度に満足しておいて、deconvolution(convolutionの逆。特徴量抽出のためにやること)をやったり、出来上がったモデルに音楽をくわせてみて判別をさせてみたりした方がいいかもしれませんね。


いい加減razor core発売してくれないかな…