物体・画像認識と時系列データ処理入門―TensorFlow2/PyTorch対応 NumPy/TensorFlow2(Keras)/PyTorchによる実装ディープラーニング 第2版 [単行本]
    • 物体・画像認識と時系列データ処理入門―TensorFlow2/PyTorch対応 NumPy/TensorFlow2(K...

    • ¥3,520106 ゴールドポイント(3%還元)
    • お取り寄せ
100000009003339317

物体・画像認識と時系列データ処理入門―TensorFlow2/PyTorch対応 NumPy/TensorFlow2(Keras)/PyTorchによる実装ディープラーニング 第2版 [単行本]

価格:¥3,520(税込)
ゴールドポイント:106 ゴールドポイント(3%還元)(¥106相当)
お届け日:お取り寄せこの商品は、日時を指定できません。届け先変更]詳しくはこちら
出版社:秀和システム
販売開始日: 2021/02/22
お取り扱い: のお取り扱い商品です。
ご確認事項:返品不可
店舗受け取りが可能です
マルチメディアAkibaマルチメディア梅田マルチメディア博多にて24時間営業時間外でもお受け取りいただけるようになりました

物体・画像認識と時系列データ処理入門―TensorFlow2/PyTorch対応 NumPy/TensorFlow2(Keras)/PyTorchによる実装ディープラーニング 第2版 の 商品概要

  • 要旨(「BOOK」データベースより)

    ディープラーニングの基礎理論から転移学習/ファインチューニング/時系列データ/自然言語処理/学習済みモデルによる物体検出まで、多彩なデータで楽しく学習!
  • 目次

    1章 ディープラーニングとは
     1.1 深層学習(ディープラーニング)とは
     1.1.1 機械学習の活用例
     1.1.2 機械学習とディープラーニングの関係
       ■機械学習の主な手法
     1.2 ディープラーニングって具体的に何をするの?
     1.2.1 ニューラルネットワークのニューロン
       ■人工ニューロン
       ■学習するということは重み・バイアスを適切な値に更新すること
       ■ニューロンの発火をつかさどる「ステップ関数」
       ■ニューロンの発火をつかさどる「シグモイド関数」
       ■人工ニューロンをネットワーク状に連結する
     1.2.2 ディープニューラルネットがディープラーニングを実現する
       ■畳み込みニューラルネットワーク(CNN)
       ■リカレントニューラルネットワーク(RNN)
       ■ドロップアウト、正則化
     1.2.3 ディープラーニングのためのライブラリ
     1.2.4 ディープラーニングの仕組み
     1.2.5 この本で使用するディープラーニング用データセット

    2章 開発環境のセットアップとPythonの基礎
     2.1 Anacondaの導入
     2.1.1 Anacondaのダウンロードとインストール
     2.2 仮想環境の構築とライブラリのインストール
     2.2.1 専用の仮想環境を構築する
     2.2.2 ライブラリのインストール
     2.2.3 ライブラリのアップデート
     2.3 Jupyter Notebookの使い方
     2.3.1 Jupyter Notebookを仮想環境にインストールする
     2.3.2 ノートブックを作成する
       ■ノートブックを保存するためのフォルダーを作成する
       ■ノートブックの作成
     2.3.3 ソースコードを入力して実行する
       ■Jupyter Notebookのコマンド
     2.3.4 ノートブックを閉じて改めて開く
       ■ノートブックを閉じる
       ■ノートブックを開く
     2.3.5 Jupyter Notebookのメニューを攻略する
       ■[File]メニュー
       ■[Edit]メニュー
       ■[View]メニュー
       ■[Insert]メニュー
       ■[Cell]メニュー
       ■[Kernel]メニュー
     2.4 Google Colabを便利に使おう!
     2.4.1 Googleドライブ上のColab専用のフォルダーにノートブックを作成する
       ■ノートブックの作成
     2.4.2 セルにコードを入力して実行する
     2.4.3 Colabノートブックの機能
       ■[ファイル]メニュー
       ■[編集]メニュー
       ■[表示]メニュー
       ■[挿入]メニュー
       ■[ランタイム]メニュー
       ■[ツール]メニュー
       ■GPUを有効にする
     2.5 Pythonの演算処理
     2.5.1 変数を使って演算する
     2.5.2 Pythonが扱うデータの種類
       ■ソースコードに説明文を書く
       COLUMN リストの中に要素製造装置を入れる(内包表記)①
     2.6 Pythonのリスト
     2.6.1 リストを作る
     2.7 if文とfor文
     2.7.1 if文
     2.7.2 条件式を作るための「比較演算子」
     2.7.3 if...elseで処理を分ける
     2.7.4 for文
     2.8 関数
     2.8.1 処理だけを行う関数
     2.8.2 引数を受け取る関数
     2.8.3 処理結果を返す関数
     2.9 クラス
     2.9.1 メソッド
     2.9.2 オリジナルのクラスを作る
       ■オブジェクトを作成する(クラスのインスタンス化)
     2.9.3 オブジェクトの初期化を行う__init__()
     2.9.4 インスタンスごとの情報を保持するインスタンス変数
       COLUMN リストの中に要素製造装置を入れる(内包表記)②

    3章 ディープラーニングの数学的要素
     3.1 ニューラルネットワークのデータ表現:テンソル
     3.1.1 NumPyのスカラー(0階テンソル)
     3.1.2 NumPyのベクトル(1階テンソル)
     3.1.3 NumPyの行列(2階テンソル)
     3.1.4 3階テンソルとより高階数のテンソル
     3.2 ニューラルネットワークを回す(ベクトルの演算)
     3.2.1 ベクトルの算術演算
     3.2.2 ベクトルのスカラー演算
     3.2.3 ベクトル同士の四則演算
       ■ベクトル同士の加算と減算
     3.2.4 ベクトルのアダマール積を求める
     3.2.5 ベクトルの内積を求める
     3.3 ニューラルネットワークを回す(行列の演算)
     3.3.1 行列の構造
     3.3.2 多次元配列で行列を表現する
     3.3.3 行列のスカラー演算
     3.3.4 行列の定数倍
     3.3.5 行列の成分にアクセスする
     3.3.6 行列の成分同士の加算・減算をする
     3.3.7 行列のアダマール積
     3.3.8 行列の内積を求める
       ■行列同士の内積を求めてみる
     3.3.9 行と列を入れ替えて「転置行列」を作る
     3.4 微分
     3.4.1 極限(lim)
     3.4.2 微分の基礎
     3.4.3 微分をPythonで実装してみる
       ■数値微分で関数を微分してみる
       ■プログラムの実行結果
     3.4.4 微分の公式
     3.4.5 変数が2つ以上の場合の微分(偏微分)
     3.4.6 合成関数の微分
       ■合成関数のチェーンルールの拡張
       ■積の微分法

    4章 ニューラルネットワークの可動部(勾配ベースの最適化)
     4.1 ロジスティック回帰を実装した単純パーセプトロンで二値分類を行う
     4.1.1 活性化関数による「発火」の仕組み
     4.1.2 シグモイド関数
       ■シグモイド関数(ロジスティック関数)
       ■シグモイド関数の実装
     4.1.3 シグモイド関数を活性化関数にしてパラメーターを最適化する
       ■最尤推定法と尤度関数
       ■対数尤度関数を微分しやすいように、両端に対数をとる
       ■対数尤度関数を変形してクロスエントロピー誤差関数にする
       ■対数尤度関数の微分
       COLUMN シグモイド関数の微分
       ■パラメーターの更新式の導出
     4.1.4 勾配降下法の考え方
       ■学習率の設定
       ■勾配降下法の更新式
     4.1.5 単純パーセプトロンで論理ゲートを実現する
       ■Pythonの標準仕様でAND、NAND、ORゲートを実装する
     4.2 XORゲートを多層パーセプトロンで実現する
     4.2.1 多層パーセプトロンによるXORゲートの実現
       ■XORゲートの実現には、線形分離不可能な二値分類が必要
       ■多層パーセプトロンの構造
     4.2.2 TensorFlowスタイルによるXORゲートの実装
       ■隠れ層(第1層)の作成
       ■バイアス、重みの初期化方法
       ■出力層(第2層)の作成(データフローグラフ)
       ■順伝播処理を行うcall()メソッド
       ■BinaryCrossentropyオブジェクトとSGDオブジェクトの生成
       ■バックプロパゲーションを実施するtrain_step()関数の定義
       ■学習を行う
     4.2.3 KerasスタイルによるXORゲートの実装
       ■モデルの作成
       ■モデルの学習
       ■学習結果の確認
     4.2.4 PyTorchによるXORゲートの実装
       ■モデルの定義
       ■モデルの生成
       ■損失関数とオプティマイザーの生成
       ■勾配降下アルゴリズムによるパラメーターの更新処理
       ■学習を行う
       ■学習結果の確認

    5章 ニューラルネットワーク(多層パーセプトロン)
     5.1 フィードフォワードニューラルネットワーク(FFNN)
     5.1.1 ニューラルネットワークにおける順方向への伝播
       ■FFNNに必要な関数群を実装する
       ■入力層→第1層
       ■第1層→第2層
       ■第2層→出力層
       ■第3層
     5.2 バックプロパゲーションを利用した重みの更新
     5.2.1 誤差が逆方向に伝播される流れを見る
     5.2.2 行列の掛け算で誤差逆伝播を一発で計算する
       ■一種の正規化因子である行列式の分母を消してしまう
     5.2.3バックプロパゲーション(誤差逆伝播法)
       ■出力層の重みを更新する(2乗和誤差の場合)
       ■出力層の重みの更新(シグモイド関数を用いるときのクロスエントロピー誤差関数の場合)
       ■出力層の重みの更新(ソフトマックス関数を用いるときのクロスエントロピー誤差関数の場合)
       ■出力層から1つ手前の層の重みを更新する
       ■重みの更新式を一般化する
     5.3 ニューラルネットワークの作成
     5.3.1 作成するニューラルネットワークの構造
     5.3.2 初期化メソッド__init__()、weight_initializer()、sigmoid()、softmax()の作成
       ■重みの初期値について考える
     5.3.3 入力層の処理
     5.3.4 隠れ層の処理
     5.3.5 出力層の処理
       ■ソフトマックス関数
     5.3.6 ニューラルネットワークの順伝播部を完成させる
     5.3.7 バックプロパゲーションによる重みの更新
       ■出力層の重みの更新
       ■隠れ層の重みの更新
     5.3.8 テストデータを評価するevaluate()メソッドの定義
     5.3.9 Python版ニューラルネットワークの完成
     5.4 ファッションアイテムの画像認識
     5.4.1 Fashion?MNISTデータセットのダウンロード
     5.4.2 Fashion?MNISTデータの前処理
       ■画像データの前処理
       ■正解ラベルの前処理
       COLUMN MNISTデータとFashion-MNISTデータ
     5.4.3 ニューラルネットワークでファッションアイテムの学習を行う
     5.4.4 ニューラルネットワークの学習精度を検証する
     5.5 TensorFlowスタイルによるニューラルネットワークの構築
     5.5.1 Fashion-MNISTデータセットの用意
     5.5.2 2層ニューラルネットワークでファッションアイテムの画像を認識する
       ■確率的勾配降下法
       ■ReLU関数
       ■隠れ層(第1層)
       ■出力層(第2層)
       ■モデルの定義を完成させる
       ■損失関数とオプティマイザーの生成
       ■パラメーターの更新処理
       ■モデルを検証する
       ■学習の早期終了判定を行うEarlyStoppingクラス
       ■訓練データから検証用のデータを抽出する
       ■学習の実行
       ■損失と精度の推移をグラフにする
     5.5.3 ドロップアウトでオーバーフィッティングを回避する
       ■隠れ層の出力にドロップアウトを適用する
       ■ドロップアウトを適用した結果を確認する
     5.6 Kerasによるニューラルネットワークの構築
     5.6.1 Kerasを用いたニューラルネットワークの構築
       ■Fashion-MNISTデータセットの読み込みと加工
       ■Kerasスタイルによるニューラルネットワークの実装
       ■学習を実行し、テストデータで検証する
       ■損失、正解率をグラフにする
     5.7 PyTorchを使ってニューラルネットワークを構築する
     5.7.1 データの読み込みと前処理、DataLoaderオブジェクトの生成まで
       ■データの加工処理を担うTransformオブジェクトの生成
       ■データセットの読み込み
       ■DataLoaderオブジェクトの生成
     5.7.2 2層ニューラルネットワークでファッションアイテムの画像を認識する
       ■モデルの作成
       ■損失関数とオプティマイザーの生成
       ■パラメーターの更新を行うtrain_step()関数の定義
       ■テストデータでモデルの評価を行うtest_step()関数の定義
       ■早期終了判定を行うEarlyStoppingクラス
       ■学習を行う

    6章 画像認識のためのディープラーニング
     6.1 ニューラルネットワークに「特徴検出器」を導入する(畳み込みニューラルネットワーク)
     6.1.1 2次元フィルターで画像の特徴を検出する
       ■2次元フィルター
       ■2次元フィルターで手書き数字のエッジを抽出してみる
     6.1.2 サイズ減した画像をゼロパディングで元のサイズに戻す
     6.1.3 Kerasスタイルによる畳み込みニューラルネットワーク(CNN)の構築
       ■入力層
       ■畳み込み層
       ■Flatten層
       ■出力層
       ■畳み込みニューラルネットワークのプログラミング
       ■畳み込みニューラルネットワーク(CNN)で画像認識を行う
     6.2 TensorFlowスタイルによるCNNの構築
       ■ライブラリのインポートとデータセットの読み込み
       ■畳み込みニューラルネットワーク(CNN)の作成
       ■損失関数とオプティマイザーの生成からEarlyStoppingクラスの定義まで
       ■学習の実行
     6.3 PyTorchによるCNNの構築
       ■データの準備からデータローダーの作成まで
       ■モデルの定義
       ■モデルの生成
       ■損失関数とオプティマイザーの生成
       ■train_step()関数の定義から早期終了判定を行うクラスの定義まで
       ■学習を行う
     6.4 プーリングで歪みやズレによる影響を回避する
     6.4.1 プーリングの仕組み
     6.4.2 プーリング層とドロップアウトを備えた畳み込みネットワークの構築
     6.4.3 TensorFlowスタイルによるプログラミング
       ■データの読み込みと前処理
       ■モデルの定義
       ■損失関数とオプティマイザーの生成からEarlyStoppingクラスの定義まで
       ■学習を行う
     6.5 Kerasスタイルでプーリングを実装したCNNを構築する
     6.6 PyTorchによるプーリングを実装したCNNの構築
       ■データの読み込み、前処理からデータローダーの作成まで
       ■モデルを定義してモデルオブジェクトを生成する
       ■損失関数とオプティマイザーの生成
       ■train_step()関数の定義から早期終了判定を行うクラスの定義まで
       ■学習を行う
       COLUMN sparse_categorical_crossentropy

    7章 一般物体認識のためのディープラーニング
     7.1 カラー画像を10のカテゴリに分類したCIFAR-10データセット
     7.1.1 一般物体認識のデータセット「CIFAR-10」を題材にする
     7.1.2 KerasでダウンロードしたCIFAR-10のカラー画像を見る
     7.1.3 一般物体認識のためのCNNの構造
     7.1.4 TensorFlowスタイルでプログラミングしたCNNに飛行機、自動車、イヌ、ネコなどの10種類の画像を認識させてみる
       ■畳み込みネットワークの構築
       ■損失関数とオプティマイザーの生成
       ■学習を実行する関数の定義
       ■モデルの検証を行うvalid_step()関数の定義
       ■学習の早期終了判定を行うクラスの定義
     
  • 内容紹介

    Pythonのライブラリの1つであるTensorFlowは、ディープラーニングを支える数学的な各種理論を学ぶのに最適なライブラリです。しかし、TensorFlowは学習に必要な計算式を開発者が自ら組み立てねばならないという少し高めのハードルがあります。本書は、TensorFlow2のライブラリを取り上げ、ディープラーニングの基礎理論から2次元フィルター、転移学習、時系列データ、自然言語処理などを楽しく学べる入門書です。

    図書館選書
    機械学習を学ぶ人や開発に利用してい人が、PythonをとTensorFlowのライブラリを使ってディープラーニングの基礎理論から2次元フィルター、転移学習、時系列データ、自然言語処理などを楽しく学ぶ入門書です。

物体・画像認識と時系列データ処理入門―TensorFlow2/PyTorch対応 NumPy/TensorFlow2(Keras)/PyTorchによる実装ディープラーニング 第2版 の商品スペック

商品仕様
出版社名:秀和システム
著者名:チーム・カルポ(著)
発行年月日:2021/03/01
ISBN-10:4798063541
ISBN-13:9784798063546
旧版ISBN:9784798056531
判型:B5
発売社名:秀和システム
対象:専門
発行形態:単行本
内容:電子通信
言語:日本語
ページ数:583ページ
縦:24cm
横:19cm
他の秀和システムの書籍を探す

    秀和システム 物体・画像認識と時系列データ処理入門―TensorFlow2/PyTorch対応 NumPy/TensorFlow2(Keras)/PyTorchによる実装ディープラーニング 第2版 [単行本] に関するレビューとQ&A

    商品に関するご意見やご感想、購入者への質問をお待ちしています!