こういう本を書いてくれた著者に感謝したい
理解が深まった
理解が深まった
機械学習を解釈する技術〜予測力と説明力を両立する実践テクニック
商品の説明
こんな方におすすめ
・機械学習エンジニア、データ分析者
機械学習の研究開発が急速な勢いで進んでいます。理論研究はもちろん、機械学習手法が実装されたオープンソースのパッケージ開発も進み、それらを実務で利用するためのノウハウも蓄積されてきています。結果として、機械学習をはじめたばかりの入門者でも比較的高い精度の予測モデルを構築できるようになりました。
Deep Learning, Gradient Boosting Decision Tree, Random Forestなどの機械学習モデルは高い予測精度を誇りますが、モデルの解釈性が低いという欠点があります。これらの複雑なブラックボックスモデルにおいて、モデルがなぜそのような予測を行っているのかを知ることは困難ですが、データ分析者自身がモデルの振る舞いを把握し、説明責任を果たすことを実務においては頻繁に求められます。
本書では、このような予測精度と解釈性のトレードオフを克服するための手法について、実務において特に有用と考えるものを厳選して紹介します。本書の構成は以下になります。
・1章:機械学習の解釈性とは
・2章:線形回帰モデルを通して「解釈性」を理解する
・3章:特徴量の重要度を知る〜Permutation Feature Importance〜
・4章:特徴量と予測値の関係を知る〜Partial Dependence〜
・5章:インスタンスごとの異質性を捉える〜Individual Conditional Expectation〜
・6章:予測の理由を考える〜SHapley Additive exPlanations〜
2章では極めて高い解釈性を誇る線形回帰モデルを通して、予測モデルに求められる解釈性について説明します。以降の4つの章では、それらの解釈性をブラックボックスモデルに与えるPFI, PD, ICE, SHAPと呼ばれる手法について解説します。
本書は機械学習の解釈手法を実用して頂くことを目的としています。Pythonでゼロから手法を実装することを通じて解釈手法のアルゴリズムを理解し、実データの分析を通じて解釈手法の勘所を押さえて頂きます。機械学習の解釈手法は強力な反面、使い方を誤ると間違った結論を導いてしまう危険もあります。本書では解釈手法を実用する際の注意点についても丁寧に触れています。
(目次)
1章 機械学習の解釈性とは
1.1 機械学習の解釈性を必要とする理由
1.2 予測精度と解釈性のトレードオフ
1.3 機械学習の解釈手法
1.4 機械学習の解釈手法の注意点
1.5 本書の構成
1.6 本書に書いていること、書いていないこと
1.7 本書で用いる数式の記法
1.8 本書のコードを実行するためのPython環境
1.9 参考文献
2章 線形回帰モデルを通して「解釈性」を理解する
2.1 線形回帰モデルの導入
2.2 線形回帰モデルが備える解釈性
2.3 実データでの線形モデルの分析
2.4 線形回帰の利点と注意点
2.5 参考文献
3章 特徴量の重要度を知る〜Permutation Feature Importance〜
3.1 なぜ特徴量の重要度を知る必要があるのか
3.2 線形回帰モデルるにおける特徴量の重要度
3.3 Permutation Feature Importance
3.4 Leave One Covariate Out Feature Importance
3.5 Grouped Permutation Feature Importance
3.6 特徴量重要度は因果関係として解釈できるか?
3.7 訓練データとテストデータのどちらで予測精度を評価するべきか
3.8 実データでの分析
3.9 PFIの利点と注意点
3.10 参考文献
4章 特徴量と予測値の関係を知る〜Partial Dependence〜
4.1 なぜ特徴量と予測値の関係を知る必要があるのか
4.2 線形回帰モデルと回帰係数
4.3 Partial Dependence
4.4 Partial Dependenceは因果関係として解釈できるのか
4.5 実データでの分析
4.6 PDの利点と注意点
4.7 参考文献
5章 インスタンスごとの異質性をとらえる〜Individual Conditional Expectation〜
5.1 なぜインスタンスごとの異質性をとらえる必要があるのか
5.2 交互作用とPDの限界
5.3 Individual Conditional Expectation
5.4 Conditional Partial Dependence
5.5 ICEの解釈
5.6 実データでの分析
5.7 ICEの利点と注意点
5.8 参考文献
6章 予測の理由を考える〜SHapley Additive exPlanations〜
6.1 なぜ予測の理由を考える必要があるのか
6.2 SHAPのアイデア
6.3 協力ゲーム理論とShapley値
6.4 SHapley Additive exPlanations
6.5 SHAPの実装
6.6 実データでの分析
6.7 ミクロからマクロへ
6.8 SHAPの利点と注意点
6.9 参考文献 付録A: Rによる分析例〜tidymodelsとDALEXで機械学習モデルを解釈する〜
A.1 tidymodelsとDALEX
A.2 データの読み込み
A.3 tidymodelsによる機械学習モデルの構築
A.4 DALEXによる機械学習モデルの解釈
A.5 まとめ
A.6 参考文献
付録B: 機械学習の解釈手法で線形回帰モデルを解釈する
B.1 なぜ機械学習の解釈手法で線形回帰モデルを解釈するのか
B.2 線形回帰モデルとPFIの関係
B.3 線形回帰モデルとPDの関係
B.4 線形回帰モデルとICEの関係
B.5 線形回帰モデルとSHAPの関係
B.6 まとめ
B.7 考文献
・機械学習エンジニア、データ分析者
機械学習の研究開発が急速な勢いで進んでいます。理論研究はもちろん、機械学習手法が実装されたオープンソースのパッケージ開発も進み、それらを実務で利用するためのノウハウも蓄積されてきています。結果として、機械学習をはじめたばかりの入門者でも比較的高い精度の予測モデルを構築できるようになりました。
Deep Learning, Gradient Boosting Decision Tree, Random Forestなどの機械学習モデルは高い予測精度を誇りますが、モデルの解釈性が低いという欠点があります。これらの複雑なブラックボックスモデルにおいて、モデルがなぜそのような予測を行っているのかを知ることは困難ですが、データ分析者自身がモデルの振る舞いを把握し、説明責任を果たすことを実務においては頻繁に求められます。
本書では、このような予測精度と解釈性のトレードオフを克服するための手法について、実務において特に有用と考えるものを厳選して紹介します。本書の構成は以下になります。
・1章:機械学習の解釈性とは
・2章:線形回帰モデルを通して「解釈性」を理解する
・3章:特徴量の重要度を知る〜Permutation Feature Importance〜
・4章:特徴量と予測値の関係を知る〜Partial Dependence〜
・5章:インスタンスごとの異質性を捉える〜Individual Conditional Expectation〜
・6章:予測の理由を考える〜SHapley Additive exPlanations〜
2章では極めて高い解釈性を誇る線形回帰モデルを通して、予測モデルに求められる解釈性について説明します。以降の4つの章では、それらの解釈性をブラックボックスモデルに与えるPFI, PD, ICE, SHAPと呼ばれる手法について解説します。
本書は機械学習の解釈手法を実用して頂くことを目的としています。Pythonでゼロから手法を実装することを通じて解釈手法のアルゴリズムを理解し、実データの分析を通じて解釈手法の勘所を押さえて頂きます。機械学習の解釈手法は強力な反面、使い方を誤ると間違った結論を導いてしまう危険もあります。本書では解釈手法を実用する際の注意点についても丁寧に触れています。
(目次)
1章 機械学習の解釈性とは
1.1 機械学習の解釈性を必要とする理由
1.2 予測精度と解釈性のトレードオフ
1.3 機械学習の解釈手法
1.4 機械学習の解釈手法の注意点
1.5 本書の構成
1.6 本書に書いていること、書いていないこと
1.7 本書で用いる数式の記法
1.8 本書のコードを実行するためのPython環境
1.9 参考文献
2章 線形回帰モデルを通して「解釈性」を理解する
2.1 線形回帰モデルの導入
2.2 線形回帰モデルが備える解釈性
2.3 実データでの線形モデルの分析
2.4 線形回帰の利点と注意点
2.5 参考文献
3章 特徴量の重要度を知る〜Permutation Feature Importance〜
3.1 なぜ特徴量の重要度を知る必要があるのか
3.2 線形回帰モデルるにおける特徴量の重要度
3.3 Permutation Feature Importance
3.4 Leave One Covariate Out Feature Importance
3.5 Grouped Permutation Feature Importance
3.6 特徴量重要度は因果関係として解釈できるか?
3.7 訓練データとテストデータのどちらで予測精度を評価するべきか
3.8 実データでの分析
3.9 PFIの利点と注意点
3.10 参考文献
4章 特徴量と予測値の関係を知る〜Partial Dependence〜
4.1 なぜ特徴量と予測値の関係を知る必要があるのか
4.2 線形回帰モデルと回帰係数
4.3 Partial Dependence
4.4 Partial Dependenceは因果関係として解釈できるのか
4.5 実データでの分析
4.6 PDの利点と注意点
4.7 参考文献
5章 インスタンスごとの異質性をとらえる〜Individual Conditional Expectation〜
5.1 なぜインスタンスごとの異質性をとらえる必要があるのか
5.2 交互作用とPDの限界
5.3 Individual Conditional Expectation
5.4 Conditional Partial Dependence
5.5 ICEの解釈
5.6 実データでの分析
5.7 ICEの利点と注意点
5.8 参考文献
6章 予測の理由を考える〜SHapley Additive exPlanations〜
6.1 なぜ予測の理由を考える必要があるのか
6.2 SHAPのアイデア
6.3 協力ゲーム理論とShapley値
6.4 SHapley Additive exPlanations
6.5 SHAPの実装
6.6 実データでの分析
6.7 ミクロからマクロへ
6.8 SHAPの利点と注意点
6.9 参考文献 付録A: Rによる分析例〜tidymodelsとDALEXで機械学習モデルを解釈する〜
A.1 tidymodelsとDALEX
A.2 データの読み込み
A.3 tidymodelsによる機械学習モデルの構築
A.4 DALEXによる機械学習モデルの解釈
A.5 まとめ
A.6 参考文献
付録B: 機械学習の解釈手法で線形回帰モデルを解釈する
B.1 なぜ機械学習の解釈手法で線形回帰モデルを解釈するのか
B.2 線形回帰モデルとPFIの関係
B.3 線形回帰モデルとPDの関係
B.4 線形回帰モデルとICEの関係
B.5 線形回帰モデルとSHAPの関係
B.6 まとめ
B.7 考文献
商品の詳細 - 色・サイズ
色に関して、撮影状況やご使用のパソコン環境により、実物と多少色が異なる場合がございます。サイズに関して、ブランドや商品によって実際のサイズと異なる場合がございますので、ご不明な場合は、出品者にお問い合わせください。
サイズ | 指定なし |
---|---|
フリーサイズ | ○ |
森下光之助
東京大学大学院経済学研究科で計量経済学を用いた実証分析を学び、経済学修士号を取得。株式会社グリッドに入社し、機械学習を用いたデータ分析プロジェクトに従事。現在はTVISION INSIGHTS株式会社で執行役員兼データ・テクノロジー本部副本部長。テレビデータの分析、社内データの利活用の促進、データ部門のマネジメントを行っている。
わかりやすい
送料・発送方法
※配送方法が複数ある場合はカート内にて変更ができます。
※配送会社の状況等によって、商品到着日が遅れる場合がございます。あらかじめご了承ください。
配送方法 | 送料 | 追跡 | 配送目安 |
---|---|---|---|
その他(配送無料) | ¥0 | なし | 5日~8日 |