KADOKAWA Technology Review
×
「規制不要論」ではイノベーションは生まれない
ビジネス・インパクト Is the law an enemy of innovation?

「規制不要論」ではイノベーションは生まれない

イノベーション推進派は規制のない「自由な世界」を求める。だが、政府のAIガイドライン策定などにも関わる慶應義塾大学法学部の大屋雄裕教授は、「規制がまったくない状態を考えてみたほうがいい」という。 by Yasuhiro Hatabe2018.11.19

先端的なテクノロジーを生み出し、イノベーションを推進する立場の人間なら、「規制は悪」であり「イノベーションの阻害要因だ」と考えるかもしれない。

だが、慶應義塾大学法学部の大屋雄裕教授は「半分は敵であり、半分は敵ではない」という。法哲学者である大屋教授は、総務省「AIネットワーク社会推進会議」、内閣府「人間中心のAI社会原則検討会議」の構成員のほか、総務省情報通信政策研究所特別研究員も務め、新しいテクノロジーに対し、どのような規制で対応すべきかを最前線で検討している中心人物の一人だ。

10月19日に東京ミッドタウン日比谷のBASE Qで開催された「Emerging Technology Nite #9 テクノロジーと法——規制はイノベーションの敵』なのか?」(主催=MITテクノロジーレビュー、協力=三井不動産株式会社 / BASEQ)では、大屋教授がイノベーションと法規制の関係について、法の成り立ちや運用サイクルといった仕組みを交えて語った。


▼【有料会員限定】有料会員(Insider Online)としてログインすると、本イベント第一部(約70分間)のノーカット映像を視聴できます。


テクノロジーを巡る規制派対反規制派の対立構造

新しいテクノロジーが生まれると、それに基づいて、事故など何らかの社会的に不幸なイベントが発生するリスクが生じる。そして実際に事が起こると、それによって困る人、損害を被る人が出てくるため、人々は社会的な対応を求めるようになる。全面的な使用禁止や一部制限、特殊な訓練を受けた者だけに使用を認める免許制、といった対応である。

一方で、「過剰に規制してしまうと、技術の発展が阻害されることもまた事実」だと大屋教授はいい、1つのエピソードを紹介した。

かつて京都市電が1895年に開通した当時、これまで電車が走ったことがない一般道を電車が走るのでは危険だという理由で、「先頭車両の前を人が歩き、旗を振って注意喚起する」というルールが実際に採用されたのだという。

「最終的にはその人がはねられる確率のほうが高いというので撤廃されましたが、この規制が一般化して、延々と採用し続けられていたら、高速鉄道というテクノロジーは生まれなかったかもしれません」(大屋教授)。

そうすると、主に技術者の側から反発が出てくる。「われわれは社会に危ないものを生み出そうとしているわけじゃない」「メリットがリスクを上回ることは計算してやっているのだから、過剰な規制を引くのはけしからん」というのが「規制は敵」と見る側の言い分だ。

しかしここで、「規制は敵ということが一定の事実だとしても、そもそも『規制がない』状態などというものがあるのかということは考えたほうがいい」と大屋教授は指摘する。

事後規制が事前規制に転化する

「問題は、まったく規制がない状態だと、何か起きた時のダメージが被害者の元に残り、その状態が放置されるということ。しかし、これは望ましくない状態。そこでわれわれは法というものを用いて『社会的な損害の再配分』を行ないます」(大屋教授)。

法が事後的に機能することで、被害者の受けたダメージが、例えば損害賠償、あるいは補償、保険などの形によって埋められるというわけだ。

さらに、「そのような事後的に損害を再配分する機能は、われわれが予期的行為者であることを条件として、事前に義務を配分することにもなる」と大屋教授はいう。

「あなたがこういう状態で事故を起こすと、及ぼした損害に対してこういう形で責めを負い、それを担保しなければならない」とあらかじめ決まっていれば、「事故を起こさないようにしよう」と考えるのが普通だ。

つまり法というものは「〜をしたら」という構成要件と「こういう痛みを負う」という制裁を結び付ける形をとっており、そのように「事後の損害の再配分」を規定することによって行為者の「自粛」を促し、問題行動や損害の発生を事前に抑える性質を持つものなのだ。

規制を敵視しても、すでにある規制は有効

「問題が起こった時のリスク配分の方法をわれわれは考えなければいけないわけですが、それをこれまでずっと考えてきたのが法です。いまの法の建て付けは、おおむね18世紀後半くらいに確立したと言われています」。

現在の法は世界を大きく、意思能力・行為能力のある「人」と、それらを持たない「物」の二分法で捉えており、その「人」という主体に行為の自由を認める代わりに「責任」を割り振っていく制度をつくり上げてきた。

「法は、人と人の関係、人と物の関係というシンプルな枠組みで物事を捉え、何らかの行為をした場合の結果の予想のしやすさを確立している。そして、このような関係の上に債権・債務が発生する原因が、法律上4種類にまとめられています」(大屋教授)

その4つとは、「契約」「事務管理」「不当利得」「不法行為」である。中でも、テクノロジーによって何か事故が起きた場合に関係が深いのが、日本では民法第709条に書かれている「不法行為」である。

故意又は過失によって他人の権利又は法律上保護される利益を侵害した者は、これによって生じた損害を賠償する責任を負う。

この条文が示しているのは「過失責任主義」だと大屋教授は説明する。故意はもちろんのこと、過失であっても、ある行為で人に損害を与えた者には行為者に責任がある。「人」であれば予測できる範囲内で、損害を予見し回避しようとする義務を怠ったとする考え方だ。

「この『不法行為』がいまの『デフォルト(既定値)』なのです。およそほかに特別な規定がない場合、この民法の『不法行為』の規定がわれわれのあらゆる行為にあらかじめ当てはめられている『規制』だということになります。その上で、すでに存在している規制が新しいテクノロジーにとって適切かという視点を持つことが必要です」(大屋教授)。

人工知能は人か物か、それ以外か

では、昨今もっとも関心を集めている、人工知能(AI)の規制についてはどうか。大屋教授は「 AIを巡る規制がいま問題になっているのは、『過失責任主義』では上手くいきそうにないからなのです」といい、その根拠を2つ挙げた。

1つ目は、現在のAIは深層学習を使っており、判断過程が相対的にブラックボックス化していることだ。特徴量の選定自体をAIが行ない、どこに注目してどういう計算をするかは技術者にも予測しがたい。そのため、望ましくない結果が出ることを予見できない。

2つ目は、情報システム自体がネットワーク化していること。情報システム自体が非常に高速に動き、かつ相互に作用しているため、何か間違いが起きた時に回避しようにも、もはや止めることが不可能な状態に陥ってしまうからだ。

さらに大屋教授はこうも続ける。

「遠い将来のことを考えると、先ほど話した『人』と『物』の二分法がAIの登場によって成立しなくなる可能性があります」。

従来、パーソン論として、「人」が生物学的に見た時の種(しゅ)としてのヒトという理由以外に、なぜ特別扱いを受ける資格があるのかということが論じられ、組み立てられてきた。そこで挙げられた「人(パーソン)」が特別である理由は、受苦能力(苦しみを感じる能力)がある、理性がある、言語を使用する、といったものだ。

「AIには受苦能力はないかもしれないが、人が人である基準を理性や言語能力だとした場合、ある段階でAIが人になる、あるいはすでになっていることを認めざるを得なくなるわけです」(大屋教授)。

つまり、これまで法の世界で確立してきた二分法、「人」と「物」との間に、「『人』によってつくられるが『物』ではない存在」というものが生まれるかもしれないということだ。そしてそうなった時に、どう対応すべきかを考える必要に迫られているのが今だといえる。

法のデザインは繊細、極論に走らない

大屋教授が参加する総務省の「AIネットワーク社会推進会議」は、AI開発ガイドラインとAI利活用原則の案を作成した。それに対して技術者サイドからは、「『尊重すべき価値』のような曖昧模糊としたものは怖い。『これをしてはいけない』というはっきりしたルールが欲しい」との要望が上がったのだという。

「何を避けなくてはいけないかが分からない状態が怖いことは分かります。規制の内容が不明確な場合、萎縮効果(chilling effect)が起こることは言われている通りです。ただし、一方で私はこのようなことも指摘しなければならないのです」といい、「立法の正統性ループ」について説明した。

通常、政府をはじめとする規制を引く人々は、法規制の導入によって社会がどう反応し、どう変化するかを想像しながら法をデザインする。そして、その変化した後の社会状態に対する「世論」、すなわち民意が、適切な立法をしようと努める政権を支え、それが次の政策(立法)を実現していく──。

「このようなループがなければ、法というシステムは安定して機能しません。このループを回すには、本来結構時間がかかるものなのです」。

法を変えた時に世の中がどう変わるかを、ある程度正確に予測して法をデザインしていくことは専門性の必要な作業であり、行政機関が審議会や研究会を設置して年単位の時間をかけて行なうものだ。

もちろん、法律をつくるのは立法者のはずであり、主権者たる国民の意思が反映されているはずの政治家に立法の責任があるはずだが、彼らが持っているのは意図だけである。具体的な条文レベルになると、法制官僚と呼ばれる専門家が関与して作っていくことになる。法のデザインや条文の書き方によって、社会に大きな影響を及ぼす、ある種繊細なものだ。

「ですから、規制すべきか、すべきでないかといったラフな話をするのではなく、どういう規制を引くかをきちんと考えていくべきだと私は思います。規制される対象、規制によって保護される利益によって、実現すべきシステムは異なるからです」と大屋教授はいう。

「法はループに沿って、社会の変化を想定してデザインされている。実際に法ができた後は、想定通りに社会が変わったか、狙い通りの効果を生じているかを継続的に監視することが重要です」。

人気の記事ランキング
  1. The 6 reasons why Huawei gives the US and its allies security nightmares 米国が「ファーウェイ排除」を求める6つの理由
  2. What is machine learning? We drew you another flowchart いまさら聞けない「機械学習」とは何か?フロー図を描いてみた
  3. AI software can dream up an entire digital world from a simple sketch 映像で3Dモデルを自動生成 エヌビディアがトップ学会で 発表した驚きの新技術
  4. CRISPR inventor Feng Zhang calls for moratorium on gene-edited babies 遺伝子編集ベビー誕生:「即時停止を」CRISPR共同開発者が声明
タグ
クレジット photo yahikoworks
畑邊 康浩 [Yasuhiro Hatabe]日本版 ゲスト寄稿者
フリーランスの編集者・ライター。語学系出版社で就職・転職ガイドブックの編集、社内SEを経験。その後人材サービス会社で転職情報サイトの編集に従事。2016年1月からフリー。
人気の記事ランキング
  1. The 6 reasons why Huawei gives the US and its allies security nightmares 米国が「ファーウェイ排除」を求める6つの理由
  2. What is machine learning? We drew you another flowchart いまさら聞けない「機械学習」とは何か?フロー図を描いてみた
  3. AI software can dream up an entire digital world from a simple sketch 映像で3Dモデルを自動生成 エヌビディアがトップ学会で 発表した驚きの新技術
  4. CRISPR inventor Feng Zhang calls for moratorium on gene-edited babies 遺伝子編集ベビー誕生:「即時停止を」CRISPR共同開発者が声明
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る