今泉允聡のレビュー一覧
-
Posted by ブクログ
ネタバレこの本は機械学習、深層学習がなぜ良い結果をもたらすのか説明できないことに対してもやもやしている方にはお勧めの本です。説明可能なAIという分野が発達してきているものの、基礎的な予測を導出する過程においてさえ、まだ数学的にそれが正しいかどうか説明できる段階にはないというのが現状のようです。
3章:深層学習においてニューラルネットワークの多層がなぜ必要か。
→これは滑らかな関数以外の素人的にいうとめちゃくちゃな関数を表すために必要といってよいです。例えば層が少ない場合には不連続なジャンプを含むグラフを表すことができません。
4章:膨大なパラメータの数の謎
→パラメータは多いほうがいいでのでしょ -
Posted by ブクログ
相転移現象の記述に深層学習を適用可能とか、暗黙的正則化による過適合抑制というのは初めて知った。PACベイズ、二重効果理論、ランジュバン動力学(焼きなまし法の解析に便利)等々、興味深かったが、いずれも深層学習の理解には未完成のツールとのことなので、日進月歩のこの分野でいまそれぞれの手法での理解がどこまで進んでいるか知りたい。また、30-40年前に既に発見されていた手法が忘れ去られ、車輪の再発明に研究者たちの貴重な人生の時間が奪われているのがもどかしいと感じた。知識・技術の体系化と継承は、それが積み上がるほど難しくなっていくが、これを諦めると人間の進歩は止まってしまうのかもしれない。
-
Posted by ブクログ
流行りのAIでなにかできないかなとどこかブレイクスルーを探している状態で書店で見かけ、手に取った一冊。読みやすく、さらっと読み終えた。著者は"原理に迫る"ことにこだわりを持っていて、もしかしたらこれまでの人生でその点を否定されたこともあるのかな(実用性を重視した研究をしろ的な)と勝手に想像して、勝手に想いを汲み取りながら読んだ。この分野には疎いし、数学も苦手なので3章以降大事なところは理解が追い付いていないけれど、また一歩前には進めたと思うたぶん。
自分自身先に実装、あとから理解が追い付いてくるタイプなので深層学習については一回なにか作って、動かすことを次の目標に、また本を -
Posted by ブクログ
数学で導かれた定理と実際は矛盾していることがある。それをなぜかと探求しているが、なかなか難しい(汗)。普遍近似定理から「層が二つのニューラルネットワークは一層あたりのパラメータの数が十分多ければ、どんな連続な関数でも表現できる。」しかし現実には多段層のネットワークが高性能であることを示している。またパラメータについては、膨大なパラメータはネットワークの自由度を上げるが、それはネットワークの過適合を起こすという法則が知られている。過適合は予測の精度を低下させる。しかし、実際のニューラルネットワークでは、膨大なパラメータでも過適合を起こさない。このように数学の法則に合わない実際があるのは何故だろう