KADOKAWA Technology Review
×
深層学習で
医者の仕事が増えすぎ、
対処できなくなる可能性
Jon Han
カバーストーリー 無料会員限定
Deep Learning Is a Black Box, but Health Care Won’t Mind

深層学習で
医者の仕事が増えすぎ、
対処できなくなる可能性

深層学習には、判断理由が人間にはわからない「ブラックボックス問題」がある。しかし医療では、必ずしもすべてのメカニズムが解明されていたわけではない。深層学習を医療の現場に導入したとき起きるのは、もっと別の問題である可能性がある。 by Monique Brouillette2017.04.28

今年の初め、人工知能研究者のセバスチアン・スラン(グーグルで自動運転部門を率いた)とスタンフォード大学の同僚は、がんの可能性がある皮膚の病変を学会が認定した皮膚科専門医と同じくらい正確に診断できる「深層学習」アルゴリズムを実演してみせた。

がん発見の仕組みはネイチャー誌に掲載されたが、今年、他にも発表されている論文同様「ソフトウェアによる病気診断」の新時代の状況について、初期段階での情報が垣間見える。新時代では、人工知能が医者を支援する一方、医者と競合する場合もある。

専門家は、写真や放射線、MRIといった医用画像は、深層学習ソフトウェアの強みとほぼ完璧に組み合わせられる、という。過去数年間に、深層学習ソフトウェアは、画像に写った顔や物体を認識する点でブレークスルーが起きている。

企業はすでに事業化に向かっている。アルファベット(グーグル)のライフサイエンス部門ベリリは昨年12月、ニコンと提携して、糖尿病患者の視力喪失の原因を発見するアルゴリズムを開発することにした。一方、放射線学分野は綿密な画像を大量に生み出すことから「医学のシリコンバレー」と呼ばれている。

ブラックボックス型医療

スランの研究チームによる予測は非常に正確だったが、ほくろのどの部位を見て深層学習プログラムが、がんと良性の腫瘍を見分けたのかは誰も確実には理解していない。深層学習の「ブラックボックス」問題の医療版が顕在化したのだ。

従来の画像処理ソフトは、プログラマーがルールを定義していた。たとえば、一時停止の交通標識は8角形だ、というルールを設定する。一方で深層学習は、従来のプログラムとは異なり、ルールはアルゴリズム自体が発見する。しかし、どんなルールが構築されたのかを説明する確認用の証跡は残されないことが多い。

医療法を専門とするミシガン大学法学大学院のニコルソン・プライス助教授(法学)は「ブラックボックス医療の場合、医者は何が起こっているのか理解できません。誰にも理解できないのです。本質的に不明瞭なのです」という。

しかし、プライス助教授は、ブラックボックス化によって医療に大きな …

こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
【春割】実施中! ひと月あたり1,000円で読み放題
10 Breakthrough Technologies 2024

MITテクノロジーレビューは毎年、世界に真のインパクトを与える有望なテクノロジーを探している。本誌がいま最も重要だと考える進歩を紹介しよう。

記事一覧を見る
気候テック企業15 2023

MITテクノロジーレビューの「気候テック企業15」は、温室効果ガスの排出量を大幅に削減する、あるいは地球温暖化の脅威に対処できる可能性が高い有望な「気候テック企業」の年次リストである。

記事一覧を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る