高リスク分野のための機械学習

責任あるAI構築のための実践アプローチ

5,720円

内容

本書は、機械学習モデルがもたらす重大なリスクを軽減し、責任あるAI運用を実現するための実践ガイドです。特に「高リスク」な意思決定が行われる分野、たとえば生体認証による識別、重要インフラの管理、教育、雇用、公共および民間の必須サービス、法執行、移民および国境管理、刑事司法、そして民主的プロセスなどにおける事例を重視しています。本書は三部構成となっており、第Ⅰ部では実践的なアプリケーションの観点から主要な問題を論じ、第Ⅱ部で構造化および非構造化データの観点からトピックをさらに深掘りし、実装上の課題や分析手法を具体的に検討します。第Ⅲ部では現実世界の高リスクな事例をもとに、成功のための実践的な助言を提示します。説明可能性、安全性、バイアス、プライバシーなどの課題に対し、Pythonベースの実践的ツールを活用した具体的対策を提供し、実務者が主体的にリスクを管理できる指針を提供します。

関連書籍

目次

訳者まえがき
賞賛の声
まえがき
序文

第I部 AIリスクマネジメントの理論と実践的応用

1章 現代の機械学習におけるリスク管理
    1.1 法的規制の概要
        1.1.1 EUのAI規則
        1.1.2 米国連邦法および規制
        1.1.3 州と自治体の法律
        1.1.4 基本的な製造物責任法
        1.1.5 連邦取引委員会の執行
    1.2 権威あるベストプラクティス
    1.3 AIインシデント
    1.4 機械学習リスク管理のための文化的能力
        1.4.1 組織の説明責任
        1.4.2 効果的なチャレンジの文化
        1.4.3 多様で経験豊富なチーム
        1.4.4 自分たちのシャンパンを飲む
        1.4.5 素早く行動して破壊せよ
    1.5 機械学習リスク管理のための組織プロセス
        1.5.1 故障モードの予測
        1.5.2 モデル・リスク管理プロセス
        1.5.3 モデル・リスク管理を超えて
    1.6 事例:ZillowのiBuyingの興隆と衰退
        1.6.1 フォールアウト
        1.6.2 教訓
    1.7 参考文献

2章 解釈可能性と説明可能性
    2.1 解釈可能性と説明可能性のための重要な考え方
    2.2 説明可能なモデル
        2.2.1 加法モデル
        2.2.2 決定木
        2.2.3 説明可能な機械学習モデルのエコシステム
    2.3 事後的(Post Hoc)説明
        2.3.1 特徴量寄与度と特徴量の重要度
        2.3.2 代理モデル
        2.3.3 モデルの性能をプロット
        2.3.4 クラスタ・プロファイリング
    2.4 事後的説明の実務上の頑固な困難性
    2.5 解釈可能なモデルと事後的説明の組み合わせ
    2.6 事例:アルゴリズムによる成績評価の失敗例
    2.7 参考文献

3章 機械学習システムの安全性と性能の検証
    3.1 学習
        3.1.1 再現性
        3.1.2 データ品質
        3.1.3 実世界での結果を得るためのモデル仕様
    3.2 モデル・デバッギング
        3.2.1 ソフトウェア・テスト
        3.2.2 伝統的なモデル評価
        3.2.3 一般的な機械学習のバグ
        3.2.4 残差分析
        3.2.5 感度分析
        3.2.6 ベンチマーク・モデル
        3.2.7 修復:バグ修正
    3.3 デプロイメント
        3.3.1 ドメイン安全性
        3.3.2 モデル監視
    3.4 事例:自動運転による死者
        3.4.1 フォールアウト
        3.4.2 準備されていないシステム
        3.4.3 教訓
    3.5 参考文献

4章 機械学習におけるバイアスの管理
    4.1 ISOおよびNISTによるバイアスの定義
        4.1.1 システミック・バイアス
        4.1.2 統計的バイアス
        4.1.3 人間のバイアスとデータサイエンス文化
    4.2 米国におけるMLバイアスの法的概念
    4.3 MLシステムからバイアスを経験しやすい人々
    4.4 人々が経験する害
    4.5 バイアス・テスト
        4.5.1 データのテスト
        4.5.2 伝統的アプローチ:等価な結果のテスト
        4.5.3 新しいマインドセット:等価な性能品質のテスト
        4.5.4 将来の展望:広範なMLエコシステムのためのテスト
        4.5.5 テスト計画概要
    4.6 バイアスの緩和
        4.6.1 技術的なバイアス緩和要因
        4.6.2 科学的方法と実験デザイン
        4.6.3 技術的なバイアス緩和アプローチ
        4.6.4 人間要因によるバイアス緩和
    4.7 事例:バイアス・バグバウンティ
    4.8 参考文献

5章 機械学習のセキュリティ
    5.1 セキュリティの基礎
        5.1.1 敵対的な思考
        5.1.2 CIA 3要素
        5.1.3 データ・サイエンティストのベストプラクティス
    5.2 機械学習システムに対する攻撃手法
        5.2.1 完全性を侵害する攻撃:機械学習モデルの出力を操作
        5.2.2 機密性を侵害する攻撃:情報の窃取
    5.3 一般的な機械学習セキュリティの懸念事項
    5.4 対策
        5.4.1 セキュリティのためのモデル・デバッグ
        5.4.2 セキュリティ確保のためのモデル監視
        5.4.3 プライバシー強化技術(Privacy-Enhancing Technologies:PETs)
        5.4.4 ロバストML
        5.4.5 一般的な対策
    5.5 事例:実際に発生した回避攻撃
        5.5.1 回避攻撃
        5.5.2 教訓
    5.6 参考文献

第II部 AIリスクマネジメントの実践

6章 説明可能なブースティング・マシンおよびXGBoostの説明
    6.1 概念の復習:機械学習の透明性
        6.1.1 加法性と相互作用
        6.1.2 制約を用いた因果性へのステップ
        6.1.3 部分的依存と個別条件期待(ICE)
        6.1.4 Shapley値
        6.1.5 モデルの文書化
    6.2 説明可能なモデルのGAMファミリー
        6.2.1 Elastic Net――ペナルティ付きGLMのアルファおよびラムダ探索
        6.2.2 一般化加法モデル(GAM)
        6.2.3 GA2Mと説明可能なブースティング・マシン
    6.3 制約と事後説明を伴うXGBoost
        6.3.1 制約ありと制約なしのXGBoost
        6.3.2 部分的依存プロットとICEを用いたモデル挙動の説明
        6.3.3 モデル説明手法としての代替決定木モデル
        6.3.4 Shapley値を用いた説明
        6.3.5 Shapley値の課題
        6.3.6 より情報に基づいたモデル選択
    6.4 参考文献

7章 PyTorchを用いた画像分類器の説明
    7.1 胸部X線画像分類の説明
    7.2 概念の再確認:説明可能なモデルと事後説明手法
        7.2.1 説明可能なモデルの概要
        7.2.2 Occlusion法
        7.2.3 勾配ベースの手法
        7.2.4 モデル・デバッグのための説明可能なAI
    7.3 説明可能なモデル
        7.3.1 ProtoPNetとその派生モデル
        7.3.2 その他の説明可能な深層学習モデル
    7.4 PyTorchを使用した画像分類器の学習と解説
        7.4.1 学習データ
        7.4.2 データセットのクラス不均衡問題への対処
        7.4.3 データ拡張と画像トリミング
        7.4.4 モデルの学習
        7.4.5 評価と指標
        7.4.6 Captumを使用した事後説明の生成
        7.4.7 モデルの説明を評価する
        7.4.8 事後説明のロバスト性
    7.5 結論
    7.6 参考文献

8章 XGBoostモデルの選択とデバッグ
    8.1 概念の復習:機械学習のデバッグ
        8.1.1 モデルの選択
        8.1.2 感度分析
        8.1.3 残差分析
        8.1.4 改善
    8.2 より良いXGBoostモデルの選択
    8.3 XGBoostの感度分析
        8.3.1 XGBoostのストレス・テスト
        8.3.2 ストレス・テストの方法論
        8.3.3 景気後退シミュレーションのためのデータ変更
        8.3.4 敵対的サンプル探索
    8.4 XGBoostの残差分析
        8.4.1 残差の分析と可視化
        8.4.2 セグメントエラー分析
        8.4.3 残差モデリング
    8.5 選択したモデルの修復
        8.5.1 PAY_0の過度な注目
        8.5.2 その他のバグ
    8.6 結論
    8.7 参考文献

9章 PyTorch画像分類器のデバッグ
    9.1 コンセプトの再確認:深層学習モデルのデバッグ
    9.2 PyTorch画像分類器のデバッグ
        9.2.1 データの品質とリーク
        9.2.2 深層学習のためのソフトウェア・テスト
        9.2.3 深層学習の感度分析
        9.2.4 修復
        9.2.5 感度の修正
    9.3 結論
    9.4 参考文献

10章 XGBoostによるバイアスのテストと修正
    10.1 概念の復習:機械学習のバイアス管理
    10.2 モデルの学習
    10.3 バイアスのためのモデル評価
        10.3.1 グループへのテストアプローチ
        10.3.2 個人の公平性
        10.3.3 プロキシバイアス
    10.4 バイアスの是正
        10.4.1 前処理
        10.4.2 中間処理
        10.4.3 後処理
        10.4.4 モデル選択
    10.5 結論
    10.6 参考文献

11章 XGBoostのレッドチーム演習
    11.1 概念の復習
        11.1.1 CIAの3要素
        11.1.2 攻撃
        11.1.3 対策
    11.2 モデル学習
    11.3 レッドチームによる攻撃
        11.3.1 モデル抽出攻撃
        11.3.2 敵対的サンプル攻撃
        11.3.3 メンバーシップ推論攻撃
        11.3.4 データ汚染
        11.3.5 バックドア
    11.4 結論
    11.5 参考文献

第III部 結論

12章 高リスクの機械学習で成功する方法
    12.1 この部屋には誰がいるのか?
    12.2 科学と工学
        12.2.1 データ科学的な手法
        12.2.2 科学的手法
    12.3 発表された結果と主張の評価
    12.4 外部規格の適用
    12.5 常識的なリスク軽減
    12.6 結論
    12.7 参考文献

索引

コラム目次
    NIST AI RMFクロスウォーク
    NIST AI RMFクロスウォーク
    NIST AI RMFクロスウォーク
    信頼性、ロバスト性、レジリエンスに関する用語の整理
    安全な機械学習システムの特徴
    NIST AI RMFクロスウォーク
    NIST AI RMFクロスウォーク
    データサイエンティストはプライバシーについて他に何を知るべきか?
    教師あり学習を超えた実用的な感度分析
    教師あり学習を超えた実践的なエラー分析
    言語モデルについて
    混同行列を通じて考える