mathjax

2017年12月4日月曜日

深層学習(Deep Learning)周り

 機械学習や深層学習(Deep Learning)周りの本を沢山買ったけれども、全体像が全く見えずに1年ほど経ち、そのままになっていたのだけれど、


ワトソンで体感する人工知能
山本 一成
ダイヤモンド社

 この辺の本を読んだら、あ、機械学習って色んな方式があるけど、その中の一つに深層学習(Deep Learning)っていうのがあって、それが今までとは桁違いの性能を出すことが分かって、流行ってるんだな。ということがようやく分かった。そして、とりあえず直近は機械学習のいろいろな方式はどうでもいいから、深層学習(Deep Learning)にフォーカスして理解すればいいんだろうと。それで、このオライリーの「ゼロから作るDeep Learning」を読み始めた。

正誤表:errata · oreilly-japan/deep-learning-from-scratch Wiki · GitHub

 この本で良かったのは、「2章 パーセプトロン」で、パーセプトロンが線形な領域しか表現できないことを説明してあったこと。そして、層を重ねることでそれが表現できることが記載してあった。他の本では、線形なものしか対応できないので、パーセプトロンは人気が無くなったと簡単に触れられているだけで、その意味する所が分からなかった。
 ただ、「3章 ニューラルネットワーク」になると、Pythonで学ぶことが理論の理解を邪魔するように感じられた。行列は数式で書いてしまえば、意味が分かり易いものを、Pythonのコードで記載しているために、それを読み解く努力をしなければならない。また、出力層の活性化関数の説明なども、なぜそれらを使い分けるかなどの説明が少なく、読み進めることが困難になった。
ということで、「4章 ニューラルネットワークの学習」以降はまだ進めていない。

 もう少し理論的な流れを説明しているものを。ということで、講談社から出ている「深層学習」岡谷貴之著を読み始めた。しかし、とりあえず使用されているフォントが美しくない。数式や図を入れる為にTeXか何かを使って書かれたものと思われるけれど、大手の出版社が出している出版物としての質はなく、同人誌でも読んでいるのかのような誌面となっている。「インクジェットプリンタで出力したのか?」と思うような感じ。だが、そのマイナスがあるにしても、こちらの本は丁寧に、これまでの経緯や、背景の説明が為されていて、大変参考となる内容となっている。

正誤表:深層学習 | 書籍情報 | 株式会社 講談社サイエンティフィク

 しかし、いかんせん難しい。「2.4.2 回帰」で
$$\|\boldsymbol{d}-y(\boldsymbol{x};\boldsymbol{w})\|^2$$ という数式が出てきた。縦棒1本の $|$ のペアは絶対値と知っているけれど、縦棒2本の $\|$ のペアは何だ?調べるとノルムというものらしい。解析学。更に「2.4.3 二値分類」で事後確率 $p(d=1|x)$ なる言葉が。統計学で使われるものらしい。更に先に進むには、この辺の雰囲気をまずは掴まないといけないので、いったん足踏み。

この辺の書籍は誤記訂正の正誤表が多く出る。購入する際は少しでも最近刷られたものを購入するのが良い。

0 件のコメント:

コメントを投稿