KADOKAWA Technology Review
×
無料の会員登録で、記事閲覧数が増えます
AI Can Be Made Legally Accountable for Its Decisions

人工知能の意思決定に説明責任はあるのか?

重要な局面での判断に人工知能(AI)システムが使われるようになるにつれて、AIシステムがどのようにしてその判断を下したのか説明することが求められるようになっている。コンピュータ科学者、認知科学者、法学者から成るハーバード大学のチームが、AIの決定に対してAI自身に説明責任を負わせることができるかどうかを調査した。 by Emerging Technology from the arXiv2017.11.28

人工知能(AI)が社会において非常に大きな役割を果たすようになるにつれて、説明責任の問題が浮上してくる。重要な決定を下す際に機械に頼ることが増えれば、機械の出した結果が受け入れ難かったり、理解できなかったりした場合に、直す仕組みが必要だ。

しかし、AIシステムに自らの決定について説明させることは単純ではない。問題の1つは、説明にコストがかかるということだ。説明のためには、AIシステムの開発と実際に質問する方法の両方において、かなりのリソースを必要とする。

もう1つの問題は、AIシステムの内部動作を開発者に公開させることによって、企か業秘密を明かしてしまう可能性があることだ。しかも、AIシステムの利点の1つは、人間には理解できない方法で複雑なデータの意味を理解できることにある。したがって、人間が理解できかるように説明することは、パフォーマンスの低下につながるかもしれない。

それでは、どうすればイノベーションを妨げることなく、AIの決定に対してAI自身に説明責任を負わせることできるのだろうか。

マサチューセッツ州ケンブリッジにあるハーバード大学のフィナーレ・ドシ・ヴェレズ助教授とメイソン・コルツ博士らのチームの研究が、1つの答えになる。コンピュータ科学者、認知科学者、法学者から成る同チームは協力して、AIシステムが提起する法的問題を調査し、重要な問題を特定し、可能性のある解決策を提案した。「法制度における説明、AIシステムの作成、人間の論理的思考が有する能力と制約に関する専門家集団です」とドシ・ヴェレズ助教授たちは言う。

チームは「説明」を定義することから始めた。「決定に対する説明とは一般的に、意思決定プロセスを説明することではなく、特定の決定を下した理由または正当性を意味します」。

この区別は重要だ。AIシステムがどのように決定を下すかを説明することは、重力の働き方やケーキの焼き方を説明できるというのと同じ意味で可能だとドシ・ヴェレズ助教授のチームは指摘する。特定の落下する物体やケーキについては言及せずに、システムが従う規則を公開すればいいのだ。

これこそ …

こちらは会員限定の記事です。
無料登録すると1カ月10本までご利用いただけます。
こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
ザ・デイリー重要なテクノロジーとイノベーションのニュースを平日毎日お届けします。
公式アカウント