「人工知能による犯罪」は誰がどう責任を取るのか?
知性を宿す機械

When an AI finally kills someone, who will be responsible? 「人工知能による犯罪」は誰がどう責任を取るのか?

AIによるサービスや製品が世の中に浸透するにつれ、その法的な問題が議論されている。もしAIが犯罪行為を犯したとき、どのような罪に問えるのか。AI研究者や法律家は激しい論争を繰り広げている。 by Emerging Technology from the arXiv2018.04.20

興味深い質問がある。時は2023年、街中を自動運転自動車が走り回っている。自動運転自動車が歩行者をはねて死なせてしまった。事件はメディアに大きく取り上げられ、訴訟は大きな注目を浴びるだろう。だが、どの法律で裁くのか。

質問に対する答えを得るのに、英ブライトン大学の上級講師ジョン・キングストン博士の研究が参考になる。キングストン博士はこの新しい法律分野の全体像を緻密に考えている。キングストン博士の分析は、自動車やコンピューティング、法律の分野で徹底的に論争しなければならない重要な課題を提起している。そして、すでにその論争は始まっている。

論争の中心にある問いかけは、人工知能(AI)システムはその行為に対して刑事責任を問われるかどうかだ。イスラエルのオノ・アカデミック・カレッジのガブリエル・ハレヴィ教授がこの問題を詳細に検証したとキングストン博士は述べている。

刑事責任は通常、行為と故意が要件となる(法理専門用語ではアクタス・レウス(客観的要件)とメンズ・レア(主観的要件)という)。キングストン博士は、ハレヴィ教授はAIシステムに適用可能な3つのシナリオを検証していると述べている。

1つ目のシナリオは、いわゆる「他者を使った加害者(perpetrator via another)」として知られるものだ。知的障害者または動物が過ちを犯した場合に適用され、知的障害者または動物は無罪と判断される。しかし、知的障害者または動物に指示をした人物は刑事責任を問われる可能性がある。たとえば、飼い犬にある人物を攻撃するように指示をした飼い主の場合だ。

このシナリオは、インテリジェント・マシンを設計した人物と使用する人物に密接な関係がある。「AIプログラムは無実の行為者になる可能性があります。そして、AIプログラムのソフトウェア・プログラマーか使用者のどちらかが『他者を使った加害者』と考えられます」とキングストン博士はいう。

2つ目のシナリオは、「予想 …

こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。