Python機械学習ライブラリ scikit-learn活用レシピ80+(インプレス) [電子書籍]
    • Python機械学習ライブラリ scikit-learn活用レシピ80+(インプレス) [電子書籍]

    • ¥2,145429 ゴールドポイント(20%還元)
    • すぐ読めます
100000086600831730

Python機械学習ライブラリ scikit-learn活用レシピ80+(インプレス) [電子書籍]

価格:¥2,145(税込)
ゴールドポイント:429 ゴールドポイント(20%還元)(¥429相当)
フォーマット:
専用電子書籍リーダアプリ「Doly」が必要です。無料ダウンロード
出版社:インプレス
公開日: 2019年03月25日
すぐ読めます。
お取り扱い: のお取り扱い商品です。
ご確認事項:電子書籍リーダーアプリ「Doly」専用コンテンツ
こちらの商品は電子書籍版です

Python機械学習ライブラリ scikit-learn活用レシピ80+(インプレス) の 商品概要

  • 必須のPython機械学習ライブラリを使いこなそう! 機械学習の各手法を80超のレシピとして幅広く解説。具体的には、次のテーマを取り上げます ― ◎機械学習の基本的な枠組み、◎モデル構築前のワークフローと前処理、◎次元削減、◎線形モデルの構築、◎ロジスティック回帰、◎距離指標によるモデル構築、◎交差検証とモデル構築後のワークフロー、◎サポートベクトルマシン、◎決定木とアンサンブル学習、◎テキストと多分類、◎ニューラルネットワーク、◎単純な評価器の作成 ― 原著 2nd Edition待望の翻訳! 本書は『scikit-learn Cookbook - Second Edition』の翻訳書です。 本書の対象読者として、機械学習のPythonプログラミングについてある程度知識または経験のある方を想定しています。
  • 目次

    表紙
    商標/サンプルコード/正誤表
    口絵
    著者紹介
    レビュー担当者紹介
    謝辞
    はじめに
    本書の内容
    本書の対象読者
    本書の表記
    サンプルコードのダウンロード
    第1章 機械学習の枠組みを理解する―NumPyからパイプラインまで/1.1 はじめに
    1.2 NumPyの基礎
    1.3 Irisデータセットを読み込む
    1.4 Irisデータセットを可視化する
    1.5 Irisデータセットをpandasで可視化する
    1.6 NumPyとmatplotlibを使ってプロットする
    1.7 最も小さな機械学習レシピ:SVM分類
    1.8 交差検証の紹介
    1.9 すべてを1つにまとめる
    1.10 機械学習のオーバービュー:分類と回帰
    第2章 モデル構築前のワークフローと前処理―サンプルデータの作成から確率的勾配降下法まで/2.1 はじめに
    2.2 簡単な分析を行うためのサンプルデータを作成する
    2.3 標準正規分布の尺度でデータをスケーリングする
    2.4 しきい値化を通じて二値の特徴量を作成する
    2.5 カテゴリ値の変数を操作する
    2.6 さまざまな戦略を使って欠測値を補完する
    2.7 外れ値が存在する状況での線形モデル
    2.8 パイプラインを使ってすべてを1つにまとめる
    2.9 回帰にガウス過程を使用する
    2.10 回帰に確率的勾配降下法を使用する
    第3章 次元削減―PCAから性能テストまで/3.1 はじめに
    3.2 PCAによる次元削減
    3.3 分解に因子分析を使用する
    3.4 非線形次元削減にカーネルPCAを使用する
    3.5 次元削減にTSVDを使用する
    3.6 分類のための分解にDictionary Learningを使用する
    3.7 次元削減に多様体を使用する:t-SNE
    3.8 次元削減法をパイプラインでテストする
    第4章 線形モデル―線形回帰からLARSまで/4.1 はじめに
    4.2 直線をデータに適合させる
    4.3 機械学習を使って直線をデータに適合させる
    4.4 線形回帰モデルを評価する
    4.5 リッジ回帰を使って線形回帰の欠点を克服する
    4.6 リッジ回帰のパラメータを最適化する
    4.7 疎性を使ってモデルを正則化する
    4.8 LARSによる正則化へのより基本的なアプローチ
    第5章 ロジスティック回帰―データの読み込みからパイプラインまで
    5.1 はじめに/5.2 UCI Machine Learning Repositoryからデータを読み込む
    5.3 pandasを使ってPima Indians Diabetesデータセットを可視化する
    5.4 UCI Machine Learning RepositoryのWebページを調べる
    5.5 ロジスティック回帰による機械学習
    5.6 混同行列を使ってロジスティック回帰の誤分類を調べる
    5.7 ロジスティック回帰で分類のしきい値を変化させる
    5.8 ROC分析
    5.9 コンテキストなしでROC曲線をプロットする
    5.10 データセットの読み込みからROC曲線のプロットまでを1つにまとめる:UCI Breast Cancerデータセット
    第6章 距離指標を使ったモデルの構築―k-means法からk近傍法まで/6.1 はじめに
    6.2 k-means法を使ったデータのクラスタリング
    6.3 セントロイドの個数を最適化する
    6.4 クラスタの正確さを評価する
    6.5 ミニバッチk-means法を使ってより多くのデータに対処する
    6.6 k-means法により画像を量子化する
    6.7 特徴空間において最近傍を特定する
    6.8 混合ガウスモデル(GMM)による確率的クラスタリング
    6.9 k-means法を使って外れ値を検出する
    6.10 回帰にk近傍法(KNN)を使用する
    第7章 交差検証とモデル構築後のワークフロー―モデルの選択から永続化まで
    7.1 はじめに
    7.2 交差検証を使ってモデルを選択する
    7.3 k分割交差検証
    7.4 均衡な交差検証
    7.5 ShuffleSplitによる交差検証
    7.6 時系列交差検証
    7.7 scikit-learnによるグリッドサーチ
    7.8 scikit-learnによるランダムサーチ
    7.9 分類指標
    7.10 回帰指標
    7.11 クラスタリング指標
    7.12 ダミー推定器を使って結果を比較する
    7.13 特徴選択
    7.14 L1ノルムによる特徴選択
    7.15 joblibまたはpickleを使ってモデルを永続化する
    第8章 サポートベクトルマシン―線形SVMからサポートベクトル回帰まで/8.1 はじめに
    8.2 線形SVMを使ってデータを分類する
    8.3 SVMを最適化する
    8.4 SVMによる多クラス分類
    8.5 サポートベクトル回帰
    第9章 決定木アルゴリズムとアンサンブル学習
    9.1 はじめに/9.2 決定木を使って基本的な分類を行う
    9.3 pydotを使って決定木を可視化する
    9.4 決定木のチューニング
    9.5 回帰に決定木を使用する
    9.6 交差検証を使って過学習を抑制する
    9.7 ランダムフォレスト回帰を実装する
    9.8 最近傍に基づくバギング回帰
    9.9 勾配ブースティング決定木のチューニング
    9.10 アダブースト(AdaBoost)回帰器のチューニング
    9.11 scikit-learnでスタッキングアグリゲータを作成する
    第10章 テキスト分類と多クラス分類/10.1 分類に確率的勾配降下法を使用する
    10.2 ナイーブベイズを使って文書を分類する
    10.3 半教師あり学習によるラベル伝播法
    第11章 ニューラルネットワーク/11.1 はじめに/11.2 パーセプトロン分類器
    11.3 ニューラルネットワーク:多層パーセプトロン
    11.4 ニューラルネットワークによるスタッキング
    第12章 単純な推定器の作成/12.1 はじめに/12.2 単純な推定器を作成する
    索引
    著者/翻訳者プロフィール
    奥付

Python機械学習ライブラリ scikit-learn活用レシピ80+(インプレス) の商品スペック

発行年月日 2019/03/18
書店分類コード K800
Cコード 3055
出版社名 インプレス
本文検索
他のインプレスの電子書籍を探す
紙の本のISBN-13 9784295005742
ファイルサイズ 280.0MB
著者名 Julian Avila
Trent Hauck
株式会社クイープ
著述名 著者

    インプレス Python機械学習ライブラリ scikit-learn活用レシピ80+(インプレス) [電子書籍] に関するレビューとQ&A

    商品に関するご意見やご感想、購入者への質問をお待ちしています!