KADOKAWA Technology Review
×
いまならワンコインで購読できます!
お試しキャンペーン
「AIにいかにして倫理的な判断をさせるのか?」に対する1つの答え
知性を宿す機械 Giving algorithms a sense of uncertainty could make them more ethical

「AIにいかにして倫理的な判断をさせるのか?」に対する1つの答え

コンピューター・アルゴリズムが人々の人生や命にかかわる機会が多くなるにつれて、倫理的に難しい問題をアルゴリズムでどう対処すべきかという問題が深刻になっている。アルゴリズムは元々、単一の数学的な目標を達成するために作られたものだが、人間というものは往々にして矛盾した存在であり、複数の相容れないものを手に入れようとするからだ。 by Karen Hao2019.01.30

アルゴリズムが倫理的判断を下す目的で利用されるのが増えてきている。おそらくその一番良い例は、あるハイテク企業の倫理的ジレンマへの取り組みだろう。この問題は「トロッコ問題(Aを助けるためにBを犠牲してもよいのかという倫理学の思考実験)」として知られている。たとえば、自律運転車が2人の歩行者のどちらかを死亡させることが避けられない状況に陥った場合、その車の制御ソフトウェアはどちらの人間を生かし、どちらを死亡させると判断すべきか?

実際には、このような難問が現実世界で自律運転車に降りかかることはあまりないだろう。しかし、すでに世に出回っている、あるいは間も無く出回るであろう他の多くのシステムは、今後あらゆる類の倫理的トレードオフを考慮せざるを得なくなる。刑事裁判で用いられている評価ツールは、社会へのリスクと被告個人に及ぶ危害とを比較検討する必要があるし、自律兵器は兵士の命と一般市民の命とを天秤にかける必要がある。

問題は、アルゴリズムはその様な非常に難しい選択を扱うようには設計されていないことだ。アルゴリズムは一つの数学的目標を達成するために作られており、たとえば、救うことのできる兵士数の最大化や一般市民の死傷者数の最小化などを目標とする。したがって、複数の、しかも利害の対立するような対象を扱おうとしたり、「自由」とか「福祉」といった実体のないものを説明しようとすると、満足のいく数学的解決法が常に見つかるとは限らない。

人工知能(AI)の利用を研究する非営利団体「パートナーシップ・オンAI(Partnership on AI)」で研究部長を務めるピーター・エッカースリー博士は、「人間は複数の相容れないものを手に入れようとします」という。エッカースリー博士は最近、この問題を考察する論文を発表した。「いちかばちかの状況はたくさんあります。そうした状況においては、単一の客観的機能の中で倫理観を反映するようにプログラムすることは現実的に不適切であり、危険ですらあるのです」。

こうした解決法のないジレンマは、アルゴリズムに限った話ではない。倫理研究家 …

こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
有料会員にはメリットがいっぱい!
  1. 毎月150本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
月額500円(2カ月間)で購読できるクーポン配布中
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る