TOPIndustries > Googleのリサーチ責任者、「説明可能なAI」の価値に疑問...

Industries

Googleのリサーチ責任者、「説明可能なAI」の価値に疑問符

2017/06/28

George Nott Computerworld

出力のチェック

 公正さやバイアスについてAIをもっと正確にチェックする方法としてNorvig氏が挙げたのは、内部の仕組みではなく出力に目を向けることだ。

 「私が融資を申し込んだところ、人間なり機械なりが審査した結果、融資を断られたとする。そして、先方に説明を求めたら、担保不足と言われたとする。それは本当の説明かもしれないし、もしかすると、私の肌の色が気に入らなかったのかもしれない。その説明からは判断が付かない」

 「だが、多種多様な事例に対して先方が下した決定をすべて見れば、そこに何らかのバイアスがあるという判断ができる。1件の決定からは分からないものが、数多くの決定からは見えてくる。説明があるのも結構なことだが、ある水準のチェックがあるのも結構なことだ」

 Google自身のアルゴリズムの出力も、バイアスがあるとの非難を受けてきた。例えば、Google画像検索で「hands(手)」や「babies(赤ちゃん)」を検索すると、白人の画像ばかりが表示される。2015年には、同社の「Googleフォト」が、黒人の男女の写真に誤って「ゴリラ」というタグを付けた一件があった。

 Google検索のオートコンプリート機能に関しても、人種差別や性差別との非難の声がある。例えば、「Are jews(ユダヤ人は...か)」と入力すると、後に続く単語の候補として、「a race(人種)」「white(白人)」「Christians(キリスト教徒)」「evil(邪悪)」とオートコンプリートで表示される。

 2016年12月にこの件を報じた英Observer紙の記事によると、同紙の取材に対してGoogleは、「これらの結果は、Google自身の見解や信条を反映したものではない」と述べ、検索結果は「Web全体のコンテンツを反映したもの」にすぎないとしている。また、豪Sydney Morning Herald紙が同月掲載した同様の記事の中では、Googleは、「当社はオートコンプリートが厳密な科学ではないことを認め、アルゴリズムの改良に常に取り組んでいる」と述べている。

 バイアスを回避するには、機械学習アルゴリズムの内幕を精査するよりも良い方法があるとNorvig氏は言う。

 「システムを使える立場の我々には、別の精査の方法が間違いなくある。仮に入力が少し違った場合に、出力も変わるのか、それとも同じなのかを、きちんと判断できる。その意味では、我々が精査できることはたくさんある」

↑ページ先頭へ