深層学習 改訂第2版 講談社作品一覧

  • 深層学習 改訂第2版
    5.0
    ◆ベストセラーの改訂版。最高最強のバイブルが大幅にパワーアップ!!◆ ・トランスフォーマー、グラフニューラルネットワーク、生成モデルなどをはじめ、各手法を大幅に加筆。 ・深層学習のさまざまな課題と、その対策についても詳しく解説。 [本書まえがきより抜粋] ないもの(=理論)ねだりをしても仕方がありません.それでも皆が研究を進めるのは,そうすることに意義があるからです.なぜうまく働くのか,なぜそうすべきか,数学的な証明はなくても,正しい説明は必ずあるはずです.それを手にできれば,目の前の課題を解決するのに,また次に進むべき道を知るうえで役に立つでしょう. そこで本書では,それぞれの方法について,今の時点で最も納得できる説明をきちんと与えることにこだわりました.名前の通った方法であっても,理屈が成り立たない,あるいは役に立たない方法や考え方については,はっきりそう書きました.著者の主観といわれても仕方がない場合もあるかもしれませんが,そのほうが有益であると信じています. また,現在の深層学習の広がりを把握できるように,定番となった問題・方法に加えて,重要だと思われる問題については,必ずしもそれほど有名でない方法も含めてなるべく網羅するようにしました.その取捨選択には,深層学習が実践的技術であることを踏まえ,実用性を最も重視しました.そこには,この間に著者が企業の実務家たちと行ってきた共同研究での経験が反映されています. [主な内容] 第1章 はじめに 第2章 ネットワークの基本構造 第3章 確率的勾配降下法 第4章 誤差逆伝播法 第5章 畳み込みニューラルネットワーク 第6章 系列データのためのネットワーク 第7章 集合・グラフのためのネットワークと注意機構 第8章 推論の信頼性 第9章 説明と可視化 第10章 いろいろな学習方法 第11章 データが少ない場合の学習 第12章 生成モデル
  • イラストで学ぶ 人工知能概論 改訂第2版
    -
    ★初学者向けの名著を100ページ増の大改訂! ホイールダック2号は深層学習を手に入れた!★ ・全面的に記述を見直すも、第1版との連続性を最大限保ち、ますますパワーアップ! ・「ニューラルネットワーク」の章を新設し、深層学習の歴史的位置づけ、CNN、RNNをわかりやすく解説した! ・「確率的生成モデル」の章を新設し、強化学習・状態推定・教師なし学習などに関わる解説に芯を通すことができた! まずは、この1冊から始めよう! 【主な内容】 第1章 人工知能をつくり出そう  第2章 探索(1):状態空間と基本的な探索 第3章 探索(2):最適経路の探索 第4章 探索(3):ゲームの理論 第5章 計画と決定(1):動的計画法 第6章 確率モデル(1):確率とベイズ理論の基礎  第7章 確率モデル(2):確率的生成モデルとナイーブベイズ 第8章 計画と決定(2):強化学習 第9章 状態推定(1):ベイズフィルタ 第10章 状態推定(2):粒子フィルタ 第11章 学習と認識(1):クラスタリングと教師なし学習  第12章 学習と認識(2):パターン認識と教師あり学習  第13章 学習と認識(3):ニューラルネットワーク  第14章 言語と論理(1):自然言語処理  第15章 言語と論理(2):記号論理  第16章 言語と論理(3):証明と質問応答  第17章 まとめ:知能を「つくる」ということ
  • 機械学習スタートアップシリーズ Pythonで学ぶ強化学習 [改訂第2版] 入門から実践まで
    4.0
    「Pythonで強化学習が実装できる!」と好評を得た入門書の改訂版。読者からの要望・指摘を反映させた。主に、Policy GradientとA2Cの記述・実装を見直した。・Pythonプログラミングとともに、ゼロからていねいに解説。・コードが公開されているから、すぐ実践できる。・実用でのネックとなる強化学習の弱点と、その克服方法まで紹介。【おもな内容】Day1 強化学習の位置づけを知る 強化学習とさまざまなキーワードの関係 強化学習のメリット・デメリット 強化学習における問題設定:Markov Decision Process Day2 強化学習の解法(1): 環境から計画を立てる 価値の定義と算出: Bellman Equation 動的計画法による状態評価の学習: Value Iteration 動的計画法による戦略の学習: Policy Iteration モデルベースとモデルフリーとの違いDay3 強化学習の解法(2): 経験から計画を立てる 経験の蓄積と活用のバランス: Epsilon-Greedy法 計画の修正を実績から行うか、予測で行うか: Monte Carlo vs Temporal Difference 経験を価値評価、戦略どちらの更新に利用するか:Valueベース vs PolicyベースDay4 強化学習に対するニューラルネットワークの適用 強化学習にニューラルネットワークを適用する 価値評価を、パラメーターを持った関数で実装する:Value Function Approximation 価値評価に深層学習を適用する:Deep Q-Network  戦略を、パラメーターを持った関数で実装する:Policy Gradient 戦略に深層学習を適用する:Advantage Actor Critic (A2C) 価値評価か、戦略かDay5 強化学習の弱点 サンプル効率が悪い 局所最適な行動に陥る、過学習をすることが多い 再現性が低い 弱点を前提とした対応策Day6 強化学習の弱点を克服するための手法 サンプル効率の悪さへの対応: モデルベースとの併用/表現学習 再現性の低さへの対応: 進化戦略 局所最適な行動/過学習への対応: 模倣学習/逆強化学習Day7 強化学習の活用領域 行動の最適化 学習の最適化
  • イラストで学ぶ ディープラーニング 改訂第2版
    3.0
    おお!もう第2版! 深層学習ベストセラーがさらにパワーアップ。リカレントニューラルネットワーク、GAN、深層強化学習の「章」が新たに加わり、ツールの最新事情も反映された。50ページ以上増強されたお得な一冊!

最近チェックした作品からのおすすめ

最近チェックした作品