ディープラーニング(深層学習)は人間にとってブラックボックスであり、AI(人工知能)による判断の根拠が不明だ―――。そんな懸念を解消する技術を米グーグル(Google)が2019年11月21日にリリースした。クラウドのサービスとして「Explainable AI(説明可能AI)」の提供を開始した。
Explainable AIは深層学習によって開発したAIにおけるニューラルネットワークの稼働状況を分析することで、AIによる判断の根拠を人間に分かる形で提示する技術である。例えば画像認識AIであれば、被写体を分類する際に根拠としたピクセルをハイライト表示する。
構造化データに基づいて判断するタイプのAIに関しては、ニューラルネットワークに入力したデータのどの部分(特徴)がAIの判断に寄与したのかを数値で示す。グーグルのクラウドAI事業を統括するバイス・プレジデント(VP)のラジェン・シェス氏は「グーグルが開発した『Integrated gradients』と呼ぶ手法を採用している」と明かす。グーグルはIntegrated gradientsを実行するためのソースコードをオープンソースとして「GitHub」で公開している。
AIが融資不可と判断した根拠を提示
AIの判断根拠を遡れると何がうれしいのか。シェスVPは「金融機関は規制当局に対してAIの判断根拠を示すよう求められている。与信管理AIがなぜある顧客に対して『融資不可』と判断したのか。Explainable AIを使うことで、顧客のどの属性がAIの判断に寄与したのか示せるようになる」と説明する。金融機関や医療機関などAIの「説明責任」が求められている組織が安心してAIを利用可能になるということだ。
Explainable AIは「Google Cloud AI」のサービスの1つとして提供する。Explainable AIの分析対象となるのは、ユーザーが「Cloud AI Platform Predictions」という機能を使ってグーグルのクラウド上に展開した機械学習モデルと、グーグルのAI自動作成サービス「AutoML」の中でも表形式のデータに対応した「AutoML Tables」を使って開発した機械学習モデルである。
様々なタイプのAIが自動で開発可能にも
Explainable AIは2019年11月に発表したばかりの最新サービスだが、AutoML Tablesも2019年4月に始まった比較的新しいサービスだ。AutoML Tablesはその破壊力の割に知名度が低いので、この機会に詳しく説明しておこう。
まずAI自動作成サービスであるAutoMLは、グーグルが2018年に発表した。ユーザーは教師データをクラウドにアップロードするだけで、あとはAIが自動で機械学習モデルを開発してくれる。当初は画像認識AIや自然言語処理AIが開発できるサービスだった。2019年4月にAutoML Tablesを開始してからは、表形式のデータを分析するものであればデータの種類を問わずに機械学習モデルを開発できるサービスになった。
以下ソース
https://tech.nikkeibp.co.jp/atcl/nxt/column/18/00692/112800017/
引用元: http://egg.5ch.net/test/read.cgi/bizplus/1575044661/