KADOKAWA Technology Review
×
識者が議論「イノベーションを潰さないための規制」という考え方
THE NEW CONTEXT CONFERENCE 2018 TOKYO Event Report #03

識者が議論「イノベーションを潰さないための規制」という考え方

人工知能や自動運転、遺伝子療法など、新たなテクノロジーによるイノベーションを推進するために、日本の法規制はどうあるべきなのか? 識者は「無規制こそがイノベーションを潰す」と指摘する。 by Koichi Motoda2018.07.18

「テクノロジーの進化がもたらすレギュレーション維新」をテーマに、6月19日に開催された「THE NEW CONTEXT CONFERENCE 2018 TOKYO」(デジタルガレージなどが主催)。「規制とイノベーション」をテーマとするセッションでは、慶應義塾大学法学部の大屋雄裕教授が、人工知能(AI)を事例とした規制手段の多様性と技術発展に関してプレゼンテーションした。

AIを事例とした規制手段の多様性と技術発展

大屋教授によれば、第2次産業革命の時代から「新たな技術的可能性=新たなリスクの誕生」という考え方があった。新たなリスクに対応する規制には、「禁止」「制限」「免許制」といった選択肢がある。しかし、過剰な規制は「技術進化の抑制」「メリットの喪失」「規制コストの発生」というデメリットも考えられるため、すぐに規制をかけるのではなく、技術利用のメリットとの相関性を考えることも必要であるという。

慶應義塾大学法学部の大屋雄裕教授

一方、AIによって実現される自動運転車の事故など新たなリスクから、どうやって人間を守るのかについては、現在ある過失責任主義という考え方が参考になるという。とはいえ、AIは深層学習などの手法によってブラックボックス化しており、管理する人間が間違いに気がついても機械を瞬時に止めることが難しいなどの理由から、AIに過失責任主義を当てはめるには限界もある。

今後のAIの規制について大屋教授は、「開発ガイドラインを踏まえた利活用ガイドラインの検討と、国際的な議論や発展に応じた再検討が必要」と述べた。

以降は、大屋教授のプレゼンテーションに続くパネルディスカッションでの主なやりとりである。大屋教授、内閣官房 日本経済再生総合事務局の中原裕彦内閣参事官、Idein(イデイン)の中村晃一代表取締役が、それぞれの立場から規制がイノベーションに与える影響などについて語り合った。モデレーターは、カンファレンスのホストであるMITメディアラボの伊藤穰一所長(デジタルガレージ共同創業者)。

AIが実現する自動運転の検証

伊藤 米国では、人間の命の価値を数字で算出しています。ITA(米商務省国際貿易局)による計算では1人9億円くらい、FDA(米食品医薬品局)の計算では8億円くらいだそうです。これらの数字をどう使うのかいうと、たとえば道路や橋、トンネルなど公共インフラを整備する際に、建設コストと救える人の数のバランスをとったり、自動車会社が車を設計する際に、安全設計への投資と人の命とのバランスをとるために使われたりしているようです。

米国の合理主義は冷たさも感じますが、日本みたいに何があっても1人の死者も出さないことを前提にすると何もできなくなります。したがって、これは前に進むためのルールであると考えられます。日本にもそういった考え方はありますか?

大屋 日本の場合、交通事故が起きた際に損害賠償額を計算するために数字が算定されることはありますが、事前に人間の価値を計算するようなことはありません。そもそも人によって違いがあると思いますし、算出された数字が適切かどうかもわかりません。

ただ、日本でもライフロスバランスについては算出を始めました。たとえば自動運転技術を導入すると、「自動運転に関わる事故が10年間でどのくらい起きるのか」「導入しなければ人間がどれくらい事故を起こすのか」という計算です。結局、どちらのライフロスが多いのかを比較するのです。

伊藤 自動運転によって起きる事故の可能性を計算するには、とてつもない量のデータを集めないと数字は出ないでしょう。そういう意味ではサンドボックスの利用も考えられますが、自動運転技術に関して、サンドボックスはどのような利用の仕方が考えられますか?

中原 サンドボックスでも国家戦略特区で地域を限定した上で、自動運転に関する利用手続きを柔軟化しました。最初は単純な技術実証のところから始めますが、徐々に一般的な利用者も含めた実証に広げていきます。

自動運転の責任をどうするのか

伊藤 自動運転車の事故に関しては、たとえばテスラのルールでは運転手の責任になります。とはいえ、テスラが提供するインタフェースが、自動運転を監視する運転手には事故の防ぎようがないものだったとしたら、それはただ運転手に責任を押し付けていることになります。

これでは、大企業が個人に責任を押し付けているだけだというのが米国内での議論です。日本では、自動運転や医療などAIの活用において、誰が責任をとるのかという議論は、どのような形で行われていますか。

中原 内閣官房では、「自動運転に係る制度整備大綱(案)」を作りました。日本には自動車損害賠償責任保険があるので、自動運転車が事故を起こした際にはいったんは所有者の責任とします。その後、保険会社の調査などによって、所有者に過失がなければ救済されるという形で正当化していくことになっています。

伊藤 それは、かなり優秀な保険会社が必要になりますね。合理的にリスクを理解し、自動車メーカーとの折衝もきちんとできないと難しいですね。そういう保険会社のサポートも出てくる可能性はあるのでしょうか?

中原 データ駆動型社会に向けてデータを取る動きがそこら中であるので、テータを取るプラットフォーマと保険のリスク管理をする人とを適切に結びつけるように仕組みが必要になってくると思います。

内閣官房 日本経済再生総合事務局の中原裕彦内閣参事官

伊藤 メディアラボの研究員が米国で保険会社のデータを分析していたら、白人以外の人はリスクと保険料がきちんと結び付いているのですが、白人の場合はある条件のリスクに対して、保険会社に支払う金額が他の人種の人よりも低かったケースがありました。これは、保険会社も気が付かなかったそうです。

結局、人間は無意識のバイアスで、自分に似た人たちをちょっと許してあげる。それが保険のデータの中に埋もれていたようで、データサイエンスによる分析で見つかったのです。米国は格差が激しいので、こういうことも起きたのでしょうが、日本の保険はどうでしょうか。

大屋 自動車保険については専門ではないのですが、日本は負担責任の理由が細かく決められています。米国だとちょっとでも過失が上回っている方が負けで、被害者に多少でも寄与責任があると賠償してもらえません。日本の場合は過失相殺ルールなので、あらゆる交通事故について10対0から5対5まで、どういう状況だったのかを保険会社が調べます。そして日本の場合、ほぼすべての交通事故の損害賠償は保険会社間で解決しています。

個人の信用情報はどのように利用できるか

伊藤 米国では、人の信用の格付け機関がデータを売っています。企業がその信用データを買い、信用が低い人は仕事につけないようになっています。仕事がなくなると怪しいローン会社からの誘いが来て、どんどん借金が増えてさらに信用が下がります。このようなことで格差が広がっています。日本はそういった信用情報などは、どのように利用されていますか。

中原 現在、日本ではローンなどの与信管理をする際、前年度の所得をもとに判断されます。しかし、今お金を借りたい人が、前年度の所得で判断されることが適切かどうかというと、必ずしも適切とは言えない部分があると思います。

そこで、もう少し財産のフローに着目した形で与信管理ができるようなことをサンドボックスによって実現してみたいと考えています。その際には、個人の情報を、個人が適切にコントロールできるようにすることが重要になると思います。

大屋 日本ではネガティブな事故情報は共有が進んでいるのですが、ポジティブな与信情報は共有されていません。日本の場合はもともと現金決済による取引が非常に多いので、ポジティブな与信情報の共有はなかなか進まないでしょう。

この課題を解決し、個人情報の社会的活用という道に進んでいるのが中国です。そこにはいい面と悪い面があります。いい面としては、なにか問題を起こしたらソーシャルでの信頼度が下がると考え、問題を起こさなくなるという抑止力です。一方で、一旦転落が始まると回復できないというデメリットがあります。

現時点でイノベーションへの規制は必要か

伊藤 実際にAIのサービスを作っている中村さんから、AIが今後社会に入っていくにあたって一番心配なことはなにで、その心配は規制によって解決できるのかについて意見を聞かせてください。

Ideinの中村晃一代表取締役

中村 日本の規制は、解釈があいまい過ぎると感じています。たとえば最近、解釈がすごくあいまいな状態なのに、いきなりIT関係者が警察に逮捕されるということが起きています。暗号通貨を採掘するツール(マイニングツール)を設置したWebサイト運営者に対して、警察はそのマイニングツールがウイルスであると決めつけ、事前に何の予告もなく逮捕しにきたそうです。

しかし、そのツールは明らかにウイルスとは違います。よくわからない人から見れば、これはアウトなんだと見えるかもしれません。

大屋 私はAIに関しては、規制されないことが一番危険だと思っています。今の話もそうですが、一般的にはなにか事件が起きると、これは新しい技術に問題があったに違いないと思う人がいるわけです。なにも規制がない状況でそういうトラブルが起きると、ある種の過激な反応が起きます。

ドローンの例を上げると、まだ特に規制されていなかった時に首相官邸への突入事件が起きたことで、その人物に対して航空法の適用という、どう考えてもおかしな理由を付けてしまいました。そういったことを防ぐためには、あらかじめある程度透明できちんと存在する規制を作っておくことが、最大の予防策になると思っています。

中原 私も、曖昧な規制は確かに明確にすることが望ましいと思ってきました。一方で、なにができるのかできないのかということに全部白黒をつけると、何か新しいことをやろうとする時に、さまざまな法律を変えなければならない可能性もあります。

したがって、規制が曖昧なところは旧来のシステムが新しいシステムに移行する際の架け橋になると思っています。ただ、みなさんがおっしゃるように、事故が起きたり予想もされずに逮捕されたりすることは望ましいとは思っていません。曖昧な部分については政府も間に入りながら、これは国が認めてやっているんですよという、社会合意を形成していけばいいのかもしれません。そうやって、曖昧のリソースを時代の架け橋として使い、大きな不祥事が起きないように実証しながら新しい規制を作っていくことが大事です。

伊藤 米国では当初、遺伝子組み換えに関して曖昧なルールを作ってしまい、バイオ関係の研究者が次々と検挙されるようなことがありました。その時、英国のケンブリッジ大学は自ら遺伝子組み換えに関して規制を作りました。そのルールをきちっと守っているから、われわれの研究は合法だとアピールしたのです。その後、ケンブリッジ大学はバイオ研究の分野で最先端を進むことになりました。こういった事例も、今後規制とインベーションに関する議論の参考になりそうです。

伊藤所長は最後に、来場者に対して、スマホで参加できる投票システムを使った会場アンケートを実施した。質問は、AIに関して「早めに規制するおくべき」もしくは「イノベーションを止めないためにまだ規制するべきではない」。投票結果は、ともに50%となった。

 

人気の記事ランキング
  1. Three reasons robots are about to become more way useful  生成AI革命の次は「ロボット革命」 夢が近づく3つの理由
  2. Why it’s so hard for China’s chip industry to become self-sufficient 中国テック事情:チップ国産化推進で、打倒「味の素」の動き
  3. Job titles of the future: AI prompt engineer 未来の職種:LLMを操る「プロンプト・エンジニア」は生き残るか
タグ
元田光一 [Koichi Motoda]日本版 ライター
サイエンスライター。日本ソフトバンク(現ソフトバンク)でソフトウェアのマニュアル制作に携わった後、理工学系出版社オーム社にて書籍の編集、月刊誌の取材・執筆の経験を積む。現在、ICTからエレクトロニクス、AI、ロボット、地球環境、素粒子物理学まで、幅広い分野で「難しい専門知識をだれでもが理解できるように解説するエキスパート」として活躍。
10 Breakthrough Technologies 2024

MITテクノロジーレビューは毎年、世界に真のインパクトを与える有望なテクノロジーを探している。本誌がいま最も重要だと考える進歩を紹介しよう。

記事一覧を見る
人気の記事ランキング
  1. Three reasons robots are about to become more way useful  生成AI革命の次は「ロボット革命」 夢が近づく3つの理由
  2. Why it’s so hard for China’s chip industry to become self-sufficient 中国テック事情:チップ国産化推進で、打倒「味の素」の動き
  3. Job titles of the future: AI prompt engineer 未来の職種:LLMを操る「プロンプト・エンジニア」は生き残るか
気候テック企業15 2023

MITテクノロジーレビューの「気候テック企業15」は、温室効果ガスの排出量を大幅に削減する、あるいは地球温暖化の脅威に対処できる可能性が高い有望な「気候テック企業」の年次リストである。

記事一覧を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る