作品一覧 2023/02/15更新 応用基礎としてのデータサイエンス AI×データ活用の実践 試し読み フォロー 深層学習の原理に迫る 数学の挑戦 試し読み フォロー 1~2件目 / 2件<<<1・・・・・・・・・>>> 今泉允聡の作品をすべて見る
ユーザーレビュー 深層学習の原理に迫る 数学の挑戦 今泉允聡 ディープラーニングについて漠然と思っていた、パラメータや学習の層が多いほうが(多いから)学習効率が高い、ということに関して、数学的な裏付けはなく仮説もいろいろと棄却されていることについて驚いた。 よく言われる、深層学習が出す答えはブラックボックスとは、単純に過程がわからないだけではなく、理論も成立...続きを読むしていないということを鑑みると、今後研究が進んで数学的にも最適な深層学習の方式が確立されれば、大きなブレークスルーがあるのかもしれないと感じた。 Posted by ブクログ 深層学習の原理に迫る 数学の挑戦 今泉允聡 ある程度機械学習や深層学習、物理のバックグラウンドが前提知識になりそうだが、それを差し引いてもとても参考になった。なぜ多層なのか、なぜパラメータが多いほど精度が良いのか、なぜ過適合にならないのかを学べた。非常に薄くてすぐに読み終えられるのもよかった。一方で縦書きの一般書の限界かもしれないが、個人的に...続きを読むはドロップアウト等の正則化手法の説明もあるともっとよかった。 Posted by ブクログ 深層学習の原理に迫る 数学の挑戦 今泉允聡 この本は機械学習、深層学習がなぜ良い結果をもたらすのか説明できないことに対してもやもやしている方にはお勧めの本です。説明可能なAIという分野が発達してきているものの、基礎的な予測を導出する過程においてさえ、まだ数学的にそれが正しいかどうか説明できる段階にはないというのが現状のようです。 3章:深...続きを読む層学習においてニューラルネットワークの多層がなぜ必要か。 →これは滑らかな関数以外の素人的にいうとめちゃくちゃな関数を表すために必要といってよいです。例えば層が少ない場合には不連続なジャンプを含むグラフを表すことができません。 4章:膨大なパラメータの数の謎 →パラメータは多いほうがいいでのでしょうか。これも実は数学的には結論が出ておらず、パラメータが増えるほどに損失が増えるポイントがあるのですが、その後下がるという研究結果があるそうです。 また、パラメータの数が訓練データよりひとつでも多いと過適合が発生してしまう、ということもわかっています。しかしさらにパラメータの数が訓練データが無限にあるとき、損失を減らしていくことができることもわかっていますが、無限は検証が困難であるためまだ発展途上となっているそうです。 5章:なぜパラメータを学習できるのか →パラメータを自動で学習できるのかどうかもひとつの謎となっている。確率的勾配降下法を用いることによって損失をゼロにするパラメータに到達するのには大量のパラメータがあればよいことがわかってきている。しかしそれがどの程度の数なのか、そもそも損失をゼロにするパラメータが最適なのかどうか、こういったところについてもまた研究がなされている状況であるということです。 6章:原理を知ることに価値はあるか →今、自分たちが扱っているものについての説明ができなければ問題があったときに対応ができない。安心して使えない。そのため原理を知ることは重要。 Posted by ブクログ 深層学習の原理に迫る 数学の挑戦 今泉允聡 深層学習にまつわる数学的な謎を,数式を使わずに概念的に説明したものである.気軽に読んで概略を理解するのに適した本である. Posted by ブクログ 深層学習の原理に迫る 数学の挑戦 今泉允聡 手軽な読み物でありながらも,深層学習の理論と課題について収集することができる。今後ますます新しい発見が続くだろうが,それを説明できるだけの数学理論の整備も求められる。 Posted by ブクログ 今泉允聡のレビューをもっと見る