機械学習のためのプライバシー保護 [単行本]
    • 機械学習のためのプライバシー保護 [単行本]

    • ¥5,170156 ゴールドポイント(3%還元)
    • 在庫あり2025年8月2日土曜日までにお届け日本全国配達料金無料
100000009004113199

機械学習のためのプライバシー保護 [単行本]

J.Morris Chang(著)Di Zhuang(著)Dumindu Samaraweera(著)髙橋 翼(監訳・訳)吉永 尊洸(訳)高濱 修輔(訳)長谷川 聡(訳)


ゴールドポイントカード・プラスのクレジット決済で「書籍」を購入すると合計12%ゴールドポイント還元!合計12%還元書籍の購入はゴールドポイントカード・プラスのクレジット決済がお得です。
通常3%ゴールドポイント還元のところ、後日付与されるクレジット決済ポイント(1%)と特典ポイント(6%)、さらにご利用明細WEBチェックにご登録いただくと2%追加して合計12%ゴールドポイント還元!詳しくはこちら

価格:¥5,170(税込)
ゴールドポイント:156 ゴールドポイント(3%還元)(¥156相当)
お届け日:在庫あり今から8時間と28分以内のご注文で、2025年8月2日土曜日までお届けします。届け先変更]詳しくはこちら
日本全国配達料金無料
出版社:共立出版
販売開始日: 2025/06/25
お取り扱い: のお取り扱い商品です。
ご確認事項:返品不可
店舗受け取りが可能です
マルチメディアAkibaマルチメディア梅田マルチメディア博多にて24時間営業時間外でもお受け取りいただけるようになりました

機械学習のためのプライバシー保護 [単行本] の 商品概要

  • 要旨(「BOOK」データベースより)

    差分プライバシー、匿名化、秘密計算、暗号によって、攻撃者からデータを守り、誰もが安心してデータの収集、保管、そして分析ができるようになる。
  • 目次

    第I部 差分プライバシーによるプライバシー保護機械学習の基礎

    第1章 機械学習におけるプライバシーへの配慮
    1.1 AI時代におけるプライバシーの複雑化
    1.2 目的外の学習がもたらす脅威
     1.2.1 プライベートなデータはその場で利用する
     1.2.2 データはどのようにMLアルゴリズム内部で処理されるのか
     1.2.3 プライバシー保護が機械学習において重要な理由
     1.2.4 規制要件と有用性:プライバシーのトレードオフ
    1.3 MLシステムに対する脅威と攻撃
     1.3.1 暗号化されないプライベートデータの問題
     1.3.2 再構築攻撃
     1.3.3 モデル反転攻撃
     1.3.4 メンバーシップ推論攻撃
     1.3.5 非匿名化(再識別)攻撃
     1.3.6 ビッグデータ解析におけるプライバシー保護の課題
    1.4 学習過程におけるプライバシーの担保:プライバシー保護機械学習
     1.4.1 差分プライバシーの利用
     1.4.2 局所差分プライバシー
     1.4.3 プライバシー保護データ合成
     1.4.4 プライバシー保護データマイニングの技術
     1.4.5 圧縮プライバシー
    1.5 本書の構成

    第2章 機械学習における差分プライバシー
    2.1 差分プライバシーとは何か
     2.1.1 差分プライバシーの概念
     2.1.2 差分プライバシーの働き
    2.2 差分プライバシーの機構
     2.2.1 バイナリメカニズム(ランダム化応答)
     2.2.2 ラプラスメカニズム
     2.2.3 指数メカニズム
    2.3 差分プライバシーの特性
     2.3.1 差分プライバシーの後処理特性
    2.3.2 差分プライバシーのグループプライバシー特性
     2.3.3 差分プライバシーの合成特性

    第3章 機械学習における差分プライバシーの高度な概念
    3.1 機械学習における差分プライバシーの適用
     3.1.1 入力摂動法
     3.1.2 アルゴリズム摂動法
     3.1.3 出力摂動法
     3.1.4 目的関数摂動法
    3.2 差分プライベートな教師あり学習アルゴリズム
     3.2.1 差分プライベートなナイーブベイズ分類
     3.2.2 差分プライベートなロジスティック回帰
     3.2.3 差分プライベートな線形回帰
    3.3 差分プライベートな教師なし学習アルゴリズム
     3.3.1 差分プライベートなk-meansクラスタリング
    3.4 ケーススタディ:差分プライベートな主成分分析
     3.4.1 水平に分割されたデータに対するPCAのプライバシー
     3.4.2 水平方向に分割されたデータに対する差分プライベートなPCAの設計
     3.4.3 プロトコルの性能を実験的に評価する


    第II部 局所差分プライバシーと合成データ生成

    第4章 機械学習における局所差分プライバシー
    4.1 局所差分プライバシーとは
     4.1.1 局所差分プライバシーの概念
     4.1.2 局所差分プライバシーのためのランダム化応答
    4.2 差分プライバシーのメカニズム
     4.2.1 ダイレクトエンコーディング
     4.2.2 ヒストグラムエンコーディング
     4.2.3 単項エンコーディング

    第5章 機械学習の高度なLDPメカニズム
    5.1 局所差分プライバシーの簡単なおさらい
    5.2 高度なLDP手法
     5.2.1 LDPにおけるラプラスメカニズム
     5.2.2 LDPを保証するDuchiのメカニズム
     5.2.3 LDPにおけるピースワイズメカニズム
    5.3 LDPナイーブベイズ分類の実装
     5.3.1 ナイーブベイズとML分類の併用
     5.3.2 離散的な特徴量に対するLDPナイーブベイス
     5.3.3 連続的な特徴量に対するLDPナイーブベイス
     5.3.4 各種LDPプロトコルの性能評価

    第6章 プライバシー保護された合成データ生成
    6.1 合成データ生成の概要
     6.1.1 合成データとは何か? なぜ重要なのでしょうか?
     6.1.2 プライバシー保護のための合成データ活用の応用面
     6.1.3 合成データの生成
    6.2 データの匿名化によるプライバシーの確保
     6.2.1 プライベートな情報の共有とプライバシーへの配慮
     6.2.2 再識別攻撃に対するk-匿名性の使用
     6.2.3 k-匿名性を超える匿名化
    6.3 プライバシー保護された合成データ生成のためのDP
     6.3.1 DPによる合成ヒストグラム表現の生成
     6.3.2 DPによる表形式の合成データ生成
     6.3.3 DPによる合成多次元マージナルデータの生成
    6.4 ミクロアグリゲーションによる合成データ公開
     6.4.1 階層クラスタリングとミクロアグリゲーションの利用
     6.4.2 合成データを生成する
     6.4.3 生成された合成データの性能を評価する


    第III部 プライバシーを保証する機械学習アプリケーションの構築

    第7章 プライバシー保護データマイニングの技術
    7.1 データマイニングと管理におけるプライバシー保護の重要性
    7.2 データ処理およびマイニングにおけるプライバシー保護
     7.2.1 データマイニングとはどのようなもので,どのように使われるのか
     7.2.2 プライバシーに関する規制要件
    7.3 入力の変更によるプライバシー保護
     7.3.1 アプリケーションと制約
    7.4 データを公開する際のプライバシーの保護
     7.4.1 Pythonによるデータのサニタイズ処理の実装
     7.4.2 k-匿名性
     7.4.3 Pythonで実装するk-匿名化

    第8章 プライバシー保護データ管理と操作
    8.1 データの処理とマイニングにおけるプライバシー保護
    8.2 k-匿名性を超えるプライバシー保護
     8.2.1 ℓ-多様性
     8.2.2 t-近接性
     8.2.3 Pythonによるプライバシーモデルの実装
    8.3 出力の修正によるプライバシー保護データマイニング
     8.3.1 相関ルール隠蔽
     8.3.2 データマイニングの精度を下げる
     8.3.3 統計データベースにおける推論制御
    8.4 データ管理システムにおけるプライバシー保護
     8.4.1 データベースのセキュリティとプライバシー:脅威と脆弱性
     8.4.2 データベースシステムがプライベートな情報を漏らす可能性
     8.4.3 データベースシステムへの攻撃
     8.4.4 統計データベースシステムにおけるプライバシー保護技術
     8.4.5 カスタマイズ可能なデータベースシステムの設計における留意点

    第9章 機械学習のための圧縮プライバシー
    9.1 圧縮プライバシーの導入
    9.2 圧縮プライバシーのメカニズム
     9.2.1 主成分分析(PCA)
     9.2.2 その他の次元削減法
    9.3 機械学習アプリケーションのための圧縮プライバシーの活用
     9.3.1 圧縮プライバシーの実装
     9.3.2 有用性タスクの精度
     9.3.3 プライバシーと有用性のためのDCAにおけるρ'の効果
    9.4 水平分割データにおけるプライバシー保護PCAとDCA
     9.4.1 水平分割されたデータにおけるプライバシー保護の実現
     9.4.2 次元削減アプローチの再確認
     9.4.3 加法準同型暗号の利用
     9.4.4 提案手法の概要
     9.4.5 プライバシーを保護する計算の仕組み
     9.4.6 プライバシー保護PCAとDCAの効率性と精度の評価

    第10章 プライバシーを強化するプラットフォームの設計
    10.1 研究データ保護・共有プラットフォームの意義
     10.1.1 DataHubプラットフォームが生まれた動機
     10.1.2 DataHubの重要な機能
    10.2 共同研究ワークスペースの理解
     10.2.1 アーキテクチャデザイン
     10.2.2 異なる信頼モデルの融合
     10.2.3 アクセス制御メカニズムの設定
    10.3 DataHubへのプライバシーとセキュリティ技術の統合
     10.3.1 クラウド型セキュアNoSQLデータベースによるデータ保存
     10.3.2 局所差分プライバシーによるプライバシー保護データ収集
     10.3.3 プライバシー保護機械学習
     10.3.4 プライバシ保護クエリ処理
     10.3.5 DataHubプラットフォームにおける合成データ生成の利用

    付 録 差分プライバシーに関する詳細

    参考文献
    索 引
  • 出版社からのコメント

    プライバシーに配慮しながら機械学習に取り組むための実践的なガイドブック。PPMLの基礎知識から応用まで、幅広く取り扱う。
  • 内容紹介

    本書は、プライバシーに配慮しながら機械学習に取り組むための実践的なガイドブックです。
    機械学習が社会実装されていく中で、さまざまな人々のパーソナルデータの活用には大きな期待が寄せられています。一方、パーソナルデータには他人に知られたくないセンシティブな情報が含まれることもあり、プライバシーへの配慮が求められています。プライバシー保護機械学習 (PPML) は、データのプライバシー保護と、機械学習モデルの有用性、の両立を図る研究領域であり、2010年代以降、北米を中心として社会実装が進められてきました。
    本書では、PPMLの基礎知識から応用まで、幅広く取り扱います。近年の中心的技術である差分プライバシーをはじめとして、圧縮プライバシーやk-匿名化などの古典的なプライバシー保護技術についても解説します。また、これらのプライバシー保護技術の機械学習への統合に関して、ロジスティック回帰などの基礎的なもの、合成データの生成方法、データプラットフォームの構築方法といった実践的なユースケースを交えて紹介します。
    本書の特長は、PPMLの基本的・実践的な手法をコード例 (Python) とともに学べる点です。そのため、プライバシーをどう保護するかの実践的スキルをステップバイステップで身につけることができます。先端的な研究に興味のある方だけでなく、産業界での適用に興味のある機械学習エンジニアやソフトウェア開発者にも有益な内容となっています。

    [原著]Privacy-Preserving Machine Learning, Manning Publications, 2023
  • 著者紹介(「BOOK著者紹介情報」より)(本データはこの書籍が刊行された当時に掲載されていたものです)

    Chang,J.Morris(CHANG,J.MORRIS/Chang,J.Morris)
    2016年から南フロリダ大学電気工学科の教授を務めており、それ以前はアイオワ州立大学(2001‐2016)、イリノイ工科大学(1995‐2001)、ロチェスター工科大学(1993‐1995)で教員をしていました。学術界に入る前は、AT&Tベル研究所(1988‐1990)でコンピュータエンジニアとして勤務していました。最近の研究テーマは、認証からマルウェア検出、プライバシー強化技術、機械学習におけるセキュリティなど、サイバーセキュリティに関する幅広い分野に及び、国防総省(DoD)の様々な機関から資金提供を受けています。ノースカロライナ州立大学でコンピュータ工学の博士号を取得しました

    Di Zhuang(DI ZHUANG/Di Zhuang)
    Snap社のセキュリティエンジニアです。中国天津の南開大学で情報セキュリティと法学の学士号を取得し、南フロリダ大学で電気工学の博士号を取得しています。精力的で熟練したセキュリティとプライバシーの研究者であり、プライバシーの設計、差分プライバシー、プライバシー保護機械学習、ソーシャルネットワーク科学、ネットワークセキュリティに関する興味、専門知識、経験を持っています。2015年から2018年までDARPAブランダイスプログラムのもとでプライバシー保護機械学習の研究を実施しました

    Samaraweera,Dumindu(SAMARAWEERA,DUMINDU/Samaraweera,Dumindu)
    南フロリダ大学の助教です。オーストラリアのカーティン大学でコンピュータシステムとネットワーキングの学士号を取得しました。また、スリランカのスリランカ情報技術研究所で情報技術の学士号を、イギリスのシェフィールド・ハラム大学でエンタープライズアプリケーション開発の修士号を取得しています。南フロリダ大学(USF)で電気工学の博士号を取得し、サイバーセキュリティとデータサイエンスの研究に注力しました。博士論文“Security and Privacy Enhancment Technologies in the Deep Learning Era”では、今日のデータ駆動型アプリケーションで特定されたプライバシーとセキュリティの問題を取り上げ、そうした問題を軽減するための詳細なソリューションを提示しました。長年にわたり、米国国防総省が資金提供する複数の大規模サイバーセキュリティ研究プロジェクトに携わってきました

    髙橋 翼(タカハシ ツバサ)
    2014年筑波大学大学院システム情報工学研究科コンピュータサイエンス専攻博士後期課程修了。現在、Turing株式会社Principal Researcher。博士(工学)。専門、機械学習、データプライバシー、AIセーフティ

    吉永 尊洸(ヨシナガ タカヒロ)
    2015年東京大学大学院理学系研究科物理学専攻博士後期課程修了。現在、LINEヤフー株式会社部長/データサイエンスティスト。博士(理学)。専門、物理学、データサイエンスおよび機械学習とその応用

    高濱 修輔(タカハマ シュウスケ)
    2021年東京大学大学院情報理工学系研究科知能機械情報学専攻博士前期課程修了。現在、LINEヤフー株式会社機械学習エンジニア修士(情報理工学)。専門、機械学習(画像認識、推薦システム)

    長谷川 聡(ハセガワ サトシ)
    2014年筑波大学大学院システム情報工学研究科コンピュータサイエンス専攻博士前期課程修了。現在、LINEヤフー株式会社リーダー/リサーチェンジニア。修士(工学)。専門、プライバシー保護技術、機械学習

機械学習のためのプライバシー保護 [単行本] の商品スペック

発行年月日 2025/06/30
ISBN-10 4320125878
ISBN-13 9784320125872
ページ数 324ページ
24cm
発売社名 共立出版
判型 B5
Cコード 3004
対象 専門
発行形態 単行本
内容 情報科学
他の共立出版の書籍を探す
分類 社会科学
成年向け書籍マーク G
書店分類コード K300
書籍ジャンル コンピュータ
再販商品 再販
書籍販売条件 委託
言語 日本語
出版社名 共立出版
著者名 J.Morris Chang
Di Zhuang
Dumindu Samaraweera
髙橋 翼
吉永 尊洸
高濱 修輔
長谷川 聡
その他 原書名: Privacy-Preserving Machine Learning〈Chang,J.Morris;Di Zhuang;Samaraweera,Dumindu〉

    共立出版 機械学習のためのプライバシー保護 [単行本] に関するレビューとQ&A

    商品に関するご意見やご感想、購入者への質問をお待ちしています!