「AIにいかにして倫理的な判断をさせるのか?」に対する1つの答え
コンピューター・アルゴリズムが人々の人生や命にかかわる機会が多くなるにつれて、倫理的に難しい問題をアルゴリズムでどう対処すべきかという問題が深刻になっている。アルゴリズムは元々、単一の数学的な目標を達成するために作られたものだが、人間というものは往々にして矛盾した存在であり、複数の相容れないものを手に入れようとするからだ。 by Karen Hao2019.01.30
アルゴリズムが倫理的判断を下す目的で利用されるのが増えてきている。おそらくその一番良い例は、あるハイテク企業の倫理的ジレンマへの取り組みだろう。この問題は「トロッコ問題(Aを助けるためにBを犠牲してもよいのかという倫理学の思考実験)」として知られている。たとえば、自律運転車が2人の歩行者のどちらかを死亡させることが避けられない状況に陥った場合、その車の制御ソフトウェアはどちらの人間を生かし、どちらを死亡させると判断すべきか?
実際には、このような難問が現実世界で自律運転車に降りかかることはあまりないだろう。しかし、すでに世に出回っている、あるいは間も無く出回るであろう他の多くのシステムは、今後あらゆる類の倫理的トレードオフを考慮せざるを得なくなる。刑事裁判で用いられている評価ツールは、社会へのリスクと被告個人に及ぶ危害とを比較検討する必要があるし、自律兵器は兵士の命と一般市民の命とを天秤にかける必要がある。
問題は、アルゴリズムはその様な非常に難しい選択を扱うようには設計されていないことだ。アルゴリズムは一つの数学的目標を達成するために作られており、たとえば、救うことのできる兵士数の最大化や一般市民の死傷者数の最小化などを目標とする。したがって、複数の、しかも利害の対立するような対象を扱おうとしたり、「自由」とか「福祉」といった実体のないものを説明しようとすると、満足のいく数学的解決法が常に見つかるとは限らない。
人工知能(AI)の利用を研究する非営利団体「パートナーシップ・オンAI(Partnership on AI)」で研究部長を務めるピーター・エッカースリー博士は、「人間は複数の相容れないものを手に入れようとします」という。エッカースリー博士は最近、この問題を考察する論文を発表した。「いちかばちかの状況はたくさんあります。そうした状況においては、単一の客観的機能の中で倫理観を反映するようにプログラムすることは現実的に不適切であり、危険ですらあるのです」。
こうした解決法のないジレンマは、アルゴリズムに限った話ではない。倫理研究家 …
- 人気の記事ランキング
-
- Two Nobel Prize winners want to cancel their own CRISPR patents in Europe クリスパー特許紛争で新展開 ノーベル賞受賞者が 欧州特許の一部取り下げへ
- Promotion MITTR Emerging Technology Nite #30 MITTR主催「生成AIと法規制のこの1年」開催のご案内
- Sorry, AI won’t “fix” climate change サム・アルトマンさん、AIで気候問題は「解決」できません
- Why OpenAI’s new model is such a big deal GPT-4oを圧倒、オープンAI新モデル「o1」に注目すべき理由
- The next generation of mRNA vaccines is on its way 日本で承認された新世代mRNAワクチン、従来とどう違うのか?