Pythonで学ぶ強化学習―入門から実践まで 改訂第2版 (機械学習スタートアップシリーズ) [単行本]
    • Pythonで学ぶ強化学習―入門から実践まで 改訂第2版 (機械学習スタートアップシリーズ) [単行本]

    • ¥3,08093 ゴールドポイント(3%還元)
    • 在庫あり2025年8月7日木曜日までヨドバシエクストリームサービス便(無料)がお届け
Pythonで学ぶ強化学習―入門から実践まで 改訂第2版 (機械学習スタートアップシリーズ) [単行本]
画像にマウスを合わせると上部に表示
100000009003167326

Pythonで学ぶ強化学習―入門から実践まで 改訂第2版 (機械学習スタートアップシリーズ) [単行本]

価格:¥3,080(税込)
ゴールドポイント:93 ゴールドポイント(3%還元)(¥93相当)
フォーマット:
お届け日:在庫あり今すぐのご注文で、2025年8月7日木曜日までヨドバシエクストリームサービス便(無料)がお届けします。届け先変更]詳しくはこちら
出版社:講談社
販売開始日: 2019/09/24
お取り扱い: のお取り扱い商品です。
ご確認事項:返品不可

カテゴリランキング

店舗受け取りが可能です
マルチメディアAkibaマルチメディア梅田マルチメディア博多にて24時間営業時間外でもお受け取りいただけるようになりました

Pythonで学ぶ強化学習―入門から実践まで 改訂第2版 (機械学習スタートアップシリーズ) の 商品概要

  • 要旨(「BOOK」データベースより)

    Pythonプログラミングとともに、ゼロからていねいに解説。コードが公開されているから、すぐ実践できる。実用でのネックとなる強化学習の弱点と、その克服方法まで紹介。
  • 目次


    Day1 強化学習の位置づけを知る
     強化学習とさまざまなキーワードの関係
     強化学習のメリット・デメリット
     強化学習における問題設定:Markov Decision Process 

    Day2 強化学習の解法(1): 環境から計画を立てる
     価値の定義と算出: Bellman Equation
     動的計画法による状態評価の学習: Value Iteration
     動的計画法による戦略の学習: Policy Iteration
     モデルベースとモデルフリーとの違い

    Day3 強化学習の解法(2): 経験から計画を立てる
     経験の蓄積と活用のバランス: Epsilon-Greedy法
     計画の修正を実績から行うか、予測で行うか: Monte Carlo vs Temporal Difference
     経験を価値評価、戦略どちらの更新に利用するか:Valueベース vs Policyベース

    Day4 強化学習に対するニューラルネットワークの適用
     強化学習にニューラルネットワークを適用する
     価値評価を、パラメーターを持った関数で実装する:Value Function Approximation
     価値評価に深層学習を適用する:Deep Q-Network
     戦略を、パラメーターを持った関数で実装する:Policy Gradient
     戦略に深層学習を適用する:Advantage Actor Critic (A2C)
     価値評価か、戦略か

    Day5 強化学習の弱点
     サンプル効率が悪い
     局所最適な行動に陥る、過学習をすることが多い
     再現性が低い
     弱点を前提とした対応策

    Day6 強化学習の弱点を克服するための手法
     サンプル効率の悪さへの対応: モデルベースとの併用/表現学習
     再現性の低さへの対応: 進化戦略
     局所最適な行動/過学習への対応: 模倣学習/逆強化学習

    Day7 強化学習の活用領域
     行動の最適化
     学習の最適化
  • 内容紹介

    「Pythonで強化学習が実装できる!」と好評を得た入門書の改訂版。読者からの要望・指摘を反映させた。主に、Policy GradientとA2Cの記述・実装を見直した。

    ・Pythonプログラミングとともに、ゼロからていねいに解説。
    ・コードが公開されているから、すぐ実践できる。
    ・実用でのネックとなる強化学習の弱点と、その克服方法まで紹介。

    【おもな内容】

    Day1 強化学習の位置づけを知る
     強化学習とさまざまなキーワードの関係
     強化学習のメリット・デメリット
     強化学習における問題設定:Markov Decision Process 

    Day2 強化学習の解法(1): 環境から計画を立てる
     価値の定義と算出: Bellman Equation
     動的計画法による状態評価の学習: Value Iteration
     動的計画法による戦略の学習: Policy Iteration
     モデルベースとモデルフリーとの違い

    Day3 強化学習の解法(2): 経験から計画を立てる
     経験の蓄積と活用のバランス: Epsilon-Greedy法
     計画の修正を実績から行うか、予測で行うか: Monte Carlo vs Temporal Difference
     経験を価値評価、戦略どちらの更新に利用するか:Valueベース vs Policyベース

    Day4 強化学習に対するニューラルネットワークの適用
     強化学習にニューラルネットワークを適用する
     価値評価を、パラメーターを持った関数で実装する:Value Function Approximation
     価値評価に深層学習を適用する:Deep Q-Network
     戦略を、パラメーターを持った関数で実装する:Policy Gradient
     戦略に深層学習を適用する:Advantage Actor Critic (A2C)
     価値評価か、戦略か

    Day5 強化学習の弱点
     サンプル効率が悪い
     局所最適な行動に陥る、過学習をすることが多い
     再現性が低い
     弱点を前提とした対応策

    Day6 強化学習の弱点を克服するための手法
     サンプル効率の悪さへの対応: モデルベースとの併用/表現学習
     再現性の低さへの対応: 進化戦略
     局所最適な行動/過学習への対応: 模倣学習/逆強化学習

    Day7 強化学習の活用領域
     行動の最適化
     学習の最適化
  • 著者について

    久保 隆宏 (クボ タカヒロ)
    TIS株式会社戦略技術センター所属。Twitter:@icoxfog417。
    現在は、「人のための要約」を目指し、少ない学習データによる要約の作成・図表化に取り組む。また、論文のまとめを共有するarXivTimesの運営、『直感 Deep Learning』オライリージャパン(2018)の翻訳など、技術の普及を積極的に行っている。

Pythonで学ぶ強化学習―入門から実践まで 改訂第2版 (機械学習スタートアップシリーズ) の商品スペック

商品仕様
出版社名:講談社
著者名:久保 隆宏(著)
発行年月日:2019/09/20
ISBN-10:4065172519
ISBN-13:9784065172513
判型:A5
対象:専門
発行形態:単行本
内容:数学
言語:日本語
ページ数:297ページ
縦:21cm
他の講談社の書籍を探す

    講談社 Pythonで学ぶ強化学習―入門から実践まで 改訂第2版 (機械学習スタートアップシリーズ) [単行本] に関するレビューとQ&A

    商品に関するご意見やご感想、購入者への質問をお待ちしています!