【展示会報告】10/5 GTC Japan
基本情報技術者試験もあったもんで、報告が大分遅くなりました。
10/5にGTC Japanがありました。
うちの会社もNVIDIAの製品を使っていますので、NVIDIAの製品を使った展示を行いました。
セッションも一杯ありました。
お医者さんが医療データ分析にAIを使っているという発表をしていましたが、医療系の話も、人工知能の話もとてもわかりやすかったです。
物の向きによって生物の脳が反応する部位が違ってくるが、これがまさにconvolutionに似ている、という話が面白かったです。
あと、AIの恋愛相談とか、音声認識の話とか。
面白い展示もけっこうありました。
文字を認識して読んでくれる装置とか
看板の大きさまでわかってくれる作業用ロボットとか。
VR体験もあって、とても楽しかったです。
あと、ソフトアイスとドーナツもありがとうございました^^
CPUで人工知能なんてさすがにだるいw
基本情報終わりましたー
ご無沙汰しております。
基本情報技術者試験が終わりました。
これのせいで3連休も遊ばず勉強してて、
昨夜も寝れなくて辛かったです>_<
今日はずっとイライラしててお腹の調子がイマイチ。
明日からは応用情報の勉強を始めようと思います。
その間に英語の試験もちょくちょく受けます。
さっそく来月、英語の試験が2つ予定されています。
明日からはさっそく工業英語の勉強や単語帳に戻ります。
そして、TDA(位相的データ分析)の勉強もしようと思っています。
あ、仕事の関係でITの展示会にも行ってきましたので、その内容もちょっと載せたいと思います。
あとは…
中南米音楽の研究ですかね。
次世代の楽器、次世代の作曲アシストは人工知能ではないか、と思います。
中南米の人たちって、身の回りのものを何でも楽器にしてきた人たちですから(カホンやレインスティックなどがその例)、
そろそろ人工知能なんかも導入しそうな気がしますね…
まだまだやることは一杯です。
基本情報/応用情報/色彩検定/英検1級/工業英検(準2以上?)/TOEIC900点
などなど。
あとはプチ研究集会兼演奏会。
今回は新しい取り組みとして人工知能を導入しようと思っています。
新曲をもうちょっと増やしたら、
場所取りと人集めをしないといけないですね。
あと2、3年かかりそうな…
でもやります、いずれは。
ではまた✋
都内で無料英会話を見つけた
なんと、都内で無料で英語がしゃべれる場所が見つかりました!
SDA世田谷教会で、毎週木曜日19:30から言語交換ミーティングがあるのです!
(ちょい早く着いててもokです)
普通、都内で英語を1,2時間しゃべろうとすると、だいたい2000円以上はかかります。
しかし、ここでは無料!
かかるのは交通費だけ。
行ってみたら、教会でやってるからといって布教という感じでもなかったです。
いや、むしろ昨日は参加者の一人がお酒の話を持ち出してて困ってたぐらいw
せっかくのチャンスなので、毎週通いたいと思います。
基本情報
基本情報技術者試験まであと3週間ちょっとぐらいですかね…
焦りが出ますね。
こつこつやってきた工業英語もやっぱり疎かになってきています。
基本情報技術者試験までは、それに専念し、他の勉強はなるべくしないようにします。
だって、この試験、アジア諸国でも認められるぐらいの試験ですから。
今は大ピンチ。英語よりこっちの方が大事だと思ってます。
勉強する量が多いので、いろいろ工夫しています。
その工夫のひとつがこちら、間違いノートです。
受験生のときは、模試を受けたら模試のコピーや余った試験用紙をノートに張り付けて間違いノートを作っていました。
最初は化学の宿題でやっていたもんですが、
こつこつやっていたあの宿題こそ受験前日に最も役立っていました。
ということで、11年ぶりに間違いノートを復活です。
毎週月曜日、会社で基本情報の勉強をしていますが、
その勉強時間にひたすらチョキチョキ✂してました。
おわんねーてな感じでした;;;
早く基本情報終わってほしいです。
工業英語もやりたいし、project Eulerという、数学の問題のコーディングもしたいです。
大学受験×人工知能についてもちょっと調べたいです。
San JuanitoとTobasのdeep learning:終わりにします
で、実は、ソースコードのフォルダの中身を見てみると、 教師あり学習用のソースコード以外にも、autoencoderとか、ほかいろいろなソースコードが含まれていました。
ということで、何か使えるものがないかしら…、と、 いろいろ探ってみました。
utils/plot-conf.py
このpythonファイルは、confusion matrixを作るためのファイルです。
テスト時に、--save_fileモードにすると、txtファイルが生成されますが、
(テスト時のtxtファイルについてはここを参照してください)
それと、ラベルファイルを使います。
使い方は、以下のようになります。
python plot_conf.py \ --file /path/to/saved_test_file.txt \ --labels /path/to/label_file.txt
そうすると、こんな感じでconfusion matrixのpdfファイルが作られます。
例えばこんな感じ。 色分けしてくれていて、PrecisionとF-measure、そして一番右下に正確度まで出力してくれるので、大変わかりやすいです。
./train_classifier_on_dnn_feats.py
こちらは、学習されたモデルのhidden layerから特徴量を抜き出し、その特徴量をsvmかrandom forestで分類してくれるやつです。 元々私はconvolution layerを可視化するツールがないか探していたんですが、うーむ、このソースコードだと、残念ながらconvolutionには対応してくれませんT_T
なので、結局convolution layerの可視化はやめて、とりあえず最も優秀だったfully connected+dropoutの方にこのソースコードをかけて特徴量を出力してみました。
使い方は以下となります。
python train_classifier_on_dnn_feats.py \ path/to/modelfile.pkl \ --which_layers 3 \ --aggregate_features \ --classifier random_forest \ --save_file save_file.txt
- --which_layers: layerは複数指定できます。1, 2, 3あるいは1 2 3のようにします
- --aggregate_features: オプションです。これを指定すると、フレームの平均とstd…(よくわからん)を求めてくれると書いてあります
- --classifier: 抜き出してきた特徴量を用いて、random_forestまたはlinear_svmで分類してくれます。何も指定しなければrandom_forestで分類してくれます
まあ、これでとりあえずfully connectedの特徴量は見れるかな、という感じですね。
それでそれで…
とりあえずこの実験はここら辺で終わりとさせていただきます。 次は何しようかな…といろいろ考えてます。 今回使ったデータセットを使って、midiファイルを作成し、magentaにかけてみようかな、とか思いましたが、 正直mp3をmidiにするには相当時間がかかります><
何しましょうかね♪
勉強に飢え渇く
私は今、勉強に飢え渇いているみたいにあれこれやりだしてます。
会社でたまにfeedlyとか見て最新論文をプリントしたりします。
会社で勧められてやっている基本情報の試験もあるのに、
工業英検とか、TOEIC Speaking & Writingとかいろいろ考えているわけです。
数式を見ながら頭を抱えてたりしないと、
なんだか生きていても生きているのか死んでいるのかわからなくなります。
学生時代は、先の見えない学生という身分がとても苦しくて、
「勉強は学生の本分」と言われているわりには、落ち着いて勉強できませんでした。
今は社会人になってちょっと落ち着いてきたので、勉強できるぐらいの心の余裕がちょっと出てきていますね。
今更という感じもあるかもしれませんが、私はまず安定感がないと勉強できません。
はたから見ると、インプットだけあってアウトプットはない状態ですから、
誰からも歓迎されませんので。
というわけで、私はなんらかの刺激を探し回っています。
数式を見ながら頭抱えたいですー
おかしい判定に爆笑
やっと交差検定1回目が終わりました。
なので、早速テスト。
テスト結果に爆笑しました。
K`ala Markaの曲が2曲も誤判定されていたからです。
ちなみに、
ラベル0がSan Juanito、
ラベル1がTobas
です。
T005はなんとcuando floresca el chunoです。
K`ala Markaの初期のTobasですね。
今やTobasの中でも古典化してきている曲です。
この曲をSan Juanitoと判定するなんて、ひどい話ですね。
(K`ala Markaによる演奏ではありませんが、それにしてもこれはひどいですねw)
これもかなりショックです。
この曲もK`ala Markaの代表的なTobasの一つです。
K`ala Markaによる演奏ではありませんが、
実はこの曲、Amazonasです…
これじゃ心が折れますね。
こんなようであれば、もう学習は続けないで、
前回の実験結果をplotしてみたり、deconvしてみたりした方がいいかもしれませんね。
時間かけてたのに正確度がこんなもんであれば…><