XAIとは? 説明可能なAIを2つの手法から解説する

  • このエントリーをはてなブックマークに追加
  • LINEで送る

 こんにちは!てくいのタチキです!日に日に発展していくAI。時間の節約や、簡単な作業の代替など、AIの進化が私達の暮らしを豊かにしてくれていることがわかるかと思います。そんな便利なAIにもいくつかの問題点があります。その中の一つとして「AIのブラックボックス化」が問題視されています。それを解消するための「XAI」について2つの手法を説明していこうと思います。

XAIとは

 XAI(Explanable AI)とは、説明可能なAIのことであり、AIによる結果のみならず、その判断に至った過程・理由を提示するもの、あるいはそれに関する技術や研究分野のことを指します。詳しくは、弊社のコラム「AIのブラックボックス問題の解決に期待が高まるXAI(説明可能なAI)」をご参照ください。

識別根拠を理解するには

内部での計算過程から理解する

 内部での計算過程から識別根拠を理解する手法の一つとして有名なものに「Grad-CAM(Gradient-weighted Class Activation Mapping)」があります。Grad-CAMの論文はこちらです。Grad-CAMを簡単に説明すると「画像のどこを見て判断したのかを可視化する方法」です。下図のように出力に対して、主だった特徴を1とし、その他を0と考え、主だった特徴はどこを見ているのかを表示します。

入出力関係から理解する

 入出力関係から識別根拠を理解する手法の一つとして有名なものに「LIME(Local Interpretable Model-agnostic Explainations)」があります。LIMEの論文はこちらです。LIMEを簡単に説明すると「出力に対して入力データのどの部分の正答率が高いか」を示すものです。入力範囲を制限してそれぞれのデータがどれ程の信頼度を持っているかを判断します。

終わりに

 AIの利用が進むに連れ、説明可能なAIの重要性も高まっていきます。てくいのブログでは、今後もXAIの情報に注目していきたいと思います。

 

  • このエントリーをはてなブックマークに追加
  • LINEで送る

SNSでもご購読できます。

コメント

Comments are closed.