説明可能AIと決定木
日本の司法は女性に甘いとか言うのをよく聞く。
本当にそうなのか、誰もが納得せざるを得ない形で分析できないだろうか。
日ごろからそんなことばかり考えていた僕は、次のような方法を思いついた。
1. 裁判所の判決を予想するニューラルネットワークを作る
2. 的中率がある程度高くなったら、このニューラルネットワークに対して、「説明可能AI」の技術を適用
説明可能AIでは、いろんな要因を論理ゲートに近似することができる。
したがって、「判決=f(被告の性別)」に十分近似可能なときの論理関数fを解析することで、被告の性別が判決にどのような影響を及ぼしているかを見ることができるだろうというわけだ。
これを研究室で指導教員の先生に相談したところ、
先生「それって決定木分析と同じじゃない?新奇性がなさそうだよ」
とご指摘をいただいた。
どうして気がつかなかったんだろう。
一度、決定木と説明可能AIの違いを整理してみないといけないな、、
2によれば、決定木は過剰適合(過学習)が起きやすいとのこと。
論理ゲートだけでネットワークを作るAIの場合は、「中間」的な値がないから滑らかさがなく、その結果として決定木の時と同じように汎用性を失ってしまうかもしれない(連続性、補完性がないため)
実際に実験して試してみたい
参考になりそうなサイト
1. https://ai-kenkyujo.com/term/decision-tree-random-forest/
2. https://dev.classmethod.jp/machine-learning/2017ad_20171211_dt-2/