AI医療の大課題「プライバシー保護」解決へスタンフォードが実験
医療分野での人工知能(AI)の応用がでは、膨大な患者の個人情報へのアクセスが障壁となっている。プライバシーの保護とデータ活用の両立を目指す新たなプラットフォームを使った大規模な実験が、スタンフォード大学医学部で始まっている。 by Will Knight2019.05.21
人工知能(AI)が医療を変える可能性は大きいが、落とし穴もある。
機械学習によって病気の原因を発見し、把握するという新しく頼もしい手法を実現するには、AIアルゴリズムを訓練するための膨大なデータが必要なのだ。具体的には、医用画像やゲノム情報、電子健康記録(EHR)などのデータであり、いずれも極めて慎重に扱う必要がある情報だ。
そこで研究者は、医療データが漏えいしないよう細心の注意を払いつつ、AIに大量のデータを学習させる方法の開発に取り組んでいる。
カリフォルニア州にあるスタンフォード大学医学部は現在、この問題を解決すべく、ある有望な方法に対して、初の大規模な試験を実施している。この試験では、被験者がAIシステムに提供する自身の医療データを選択できる。AIシステムは実際に詳細な個人情報にアクセスしなくても、眼疾患を診断できるように訓練できる。
被験者は眼科の診察結果と健康に関する記録データをアプリを使って提出する。被験者が 提出した情報は、画像から眼疾患の兆候を特定する機械学習モデルを訓練するために使われる。このデータは、カリフォルニア大学バークレー校(UCバークレー)からスピンアウトしたスタートアップ企業、オアシス・ラボ(Oasis Labs)が開発したテクノロジーで保護されており、情報が漏えいしたり、悪用されたりしないことが保証されている。オアシス・ラボは最近、当局から試験運用を開始する許可を与えられたばかりだ。
患者個人のデータをいかにして慎重に …
- 人気の記事ランキング
-
- Phase two of military AI has arrived 米軍で導入進む「戦場のLLM」、未解決の3つの課題とは?
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法
- A Google Gemini model now has a “dial” to adjust how much it reasons 推論モデルは「考えすぎ」、グーグルがGeminiに調整機能
- The awakening of a “silent giant”: How Chinese AI models shocked the world 動き出した「静かな巨人」、中国発のAIモデルが世界に与えた驚き