2014年、MITメディアラボの研究者は「モラル・マシン(Moral Machine)」という実験を考案した。ゲーム形式のプラットホームを作成し、「トロッコ問題(Aを助けるためにBを犠牲してもよいのかという倫理学の思考実験)」のさまざまなバリエーションによって、自動運転自動車はどのように人間の生命を優先するべきかという問題に関する人々の判断をクラウドソーシングで集めるというものだ。その過程において生成されたデータは、さまざまな文化の集約的な倫理的優先事項を理解する手がかりを与えてくれる。
モラル・マシンのネット上での拡散ぶりは、当の研究者たちも予想だにしていなかった。プラットホームの立ち上げから4年後には、233の国と地域の何百万という人々から4000万件もの回答が寄せられ、道徳的な傾向に関する世界最大級の調査となった。
このほど、ネイチャー誌で発表された新しい論文のデータ分析結果は、異文化における倫理感が、文化や経済、地理的位置によっていかに多様化するかを明らかにしている。
トロッコ問題
典型的なトロッコ問題とは以下のようなものだ。暴走するトロッコが線路を猛スピードで走って来るのが見え、このままでは5人の人間に突っ込んでしまう。自分は線路を切り替えて、トロッコを別の線路へ方向転換できるレバーを使える。しかし、そうすれば別の人が非業の死を遂げることになる。レバーを引いて、1人の命を犠牲にして5人の命を救うべきか否か?
モラル・マシンは、9つの異なる比較例を示し、それぞれへの反応によって人々を分類する実験をした。自動運転自動車は、ペットよりも人間の命を優先、歩行者よりも同乗者の命を優先、少しでも多くの人の命を優先、男性よりも女性を優先、高齢者よりも若者を優先、病人よりも健康な人を優先、社会的地位の高い方を優先、不法者よりも法を守る人間を優先するべきかどうか。そして最後に、自動車はハンドルを切る(行動を起こす)べきか、それともそのまま直進する(行動を起こさない)べきか。
この実験では先の項目のような1対1の比較というよりも、さまざまな組み合わせを参加者に提示した。たとえば、自動運 …
- 人気の記事ランキング
-
- This company claims a battery breakthrough. Now they need to prove it. すべてのパラメーターが矛盾——「出来すぎ」全固体電池は本物か?
- OpenAI’s “compromise” with the Pentagon is what Anthropic feared アンソロピック排除の裏で進んだオープンAIの軍事契約、その代償は
- AI is rewiring how the world’s best Go players think 「アルファ碁」から10年、 AIは囲碁から 創造性を奪ったのか
- How uncrewed narco subs could transform the Colombian drug trade 中には誰もいなかった—— コカイン密輸組織が作った 「自律潜水ドローン」の脅威