今日はオーラいりー
こんばんは。
pytorchはこれからもまだ学ぶんですが、
今日でUDEMYのコースが終わったんで、前回記事でいったん終了しました。
いまさらながら、
ディープラーニングの登竜門といわれている文献を読もうと思いました。
僕自身は初めて拝読させていただくのですが、
なんせ、あまりにもおすすめとのことなので、実際に
どんなものかをアウトプットも込みで
書いていきます。
↓文献(ゼロから始めるDeep learning)
第一章は基本的に文法の話であったので、すっ飛ばして2章から入りました。
一旦2章が終わったので、アウトプット。
この賞からディープラーニングの考え方の基本中の基本のパーセプトロンの話になります。
まずは単層のパーセプトロン。
そもそも、パーセプトロンとは、1950年ごろから生まれたアルゴリズムで、
今日のディープラーニングの生みの親の考え方。
この、〇がノードとか言ったりするのだが、
このノード(x1とかx2)にそれぞれw(抵抗)を加えて、コントロールする。
わかりやすく言うと、電流のようなもの。
それぞれの矢印に向かって電流が流れていくのだが、wの効果で、その電流が流れる量をコントロールしてくれる。
それほどに、重み、とは大事なものになってくる。
パーセプトロンの話の中には、
重み、バイアスという言葉が出てくる。
よく、重みと同意で表現することもあるのだが、
バイアスとはつまりは発火のしやすさを表している。
例えば、アイフォンの残電池で考えてみよう。
朝、フル充電だと、100%であるが、使っていると、途中で省電力モードにしますか?の案内が来る。(20%のところ)
この20%がバイアスである。
つまり、どのレベルまで行ったら値を返すのか、を表現しているのが、バイアス、という概念になる。
さて、この単層のパーセプトロン、シンプルであり、非常にわかりやすい。
直線の領域の区分(0 か1か)は得意であるのだが、わかりやすく言うと、複雑な計算ができない(非線形領域はできない)
このままでは、
単純な計算しかできなくなってしまう。
さてどうするか。
実はここで生まれたのが、多層のパーセプトロン、という考え方だ。
いやいや、いくらか重ねたらいいんじゃね?って話。
そうすることで、
より複雑な計算もできるようになった。
ここまでが第2章
(少しコードも出てきましたが、今回は割愛してます)