「人工知能による犯罪」は誰がどう責任を取るのか?
AIによるサービスや製品が世の中に浸透するにつれ、その法的な問題が議論されている。もしAIが犯罪行為を犯したとき、どのような罪に問えるのか。AI研究者や法律家は激しい論争を繰り広げている。 by Emerging Technology from the arXiv2018.04.20
興味深い質問がある。時は2023年、街中を自動運転自動車が走り回っている。自動運転自動車が歩行者をはねて死なせてしまった。事件はメディアに大きく取り上げられ、訴訟は大きな注目を浴びるだろう。だが、どの法律で裁くのか。
質問に対する答えを得るのに、英ブライトン大学の上級講師ジョン・キングストン博士の研究が参考になる。キングストン博士はこの新しい法律分野の全体像を緻密に考えている。キングストン博士の分析は、自動車やコンピューティング、法律の分野で徹底的に論争しなければならない重要な課題を提起している。そして、すでにその論争は始まっている。
論争の中心にある問いかけは、人工知能(AI)システムはその行為に対して刑事責任を問われるかどうかだ。イスラエルのオノ・アカデミック・カレッジのガブリエル・ハレヴィ教授がこの問題を詳細に検証したとキングストン博士は述べている。
刑事責任は通常、行為と故意が要件となる(法理専門用語ではアクタス・レウス(客観的要件)とメンズ・レア(主観的要件)という)。キングストン博士は、ハレヴィ教授はAIシステムに適用可能な3つのシナリオを検証していると述べている。
1つ目のシナリオは、いわゆる「他者を使った加害者(perpetrator via another)」として知られるものだ。知的障害者または動物が過ちを犯した場合に適用され、知的障害者または動物は無罪と判断される。しかし、知的障害者または動物に指示をした人物は刑事責任を問われる可能性がある。たとえば、飼い犬にある人物を攻撃するように指示をした飼い主の場合だ。
このシナリオは、インテリジェント・マシンを設計した人物と使用する人物に密接な関係がある。「AIプログラムは無実の行為者になる可能性があります。そして、AIプログラムのソフトウェア・プログラマーか使用者のどちらかが『他者を使った加害者』と考えられます」とキングストン博士はいう。
2つ目のシナリオは、「予想 …
- 人気の記事ランキング
-
- China figured out how to sell EVs. Now it has to deal with their aging batteries. 中国でEV廃車ラッシュ、年間82万トンのバッテリー処理追いつかず
- Quantum navigation could solve the military’s GPS jamming problem ロシアGPS妨害で注目の「量子航法」技術、その実力と課題は?
- Text-to-image AI models can be tricked into generating disturbing images AIモデル、「脱獄プロンプト」で不適切な画像生成の新手法
- How social media encourages the worst of AI boosterism GPT-5が「未解決問題解いた」 恥ずかしい勘違い、なぜ?