フラッシュ2022年3月24日
-
脳で想像したのと「同じ意味」の画像を表示、阪大が新技術
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]大阪大学の研究チームは、被験者が見た画像の意味を頭蓋内脳波から推定する脳情報解読技術を開発。この技術を用いて、被験者が想像したのと同じ意味の画像を画面に表示できることを世界で初めて実証した。さらに、被験者が画像を見ながら別の意味の画像を想像する際の脳活動の特徴を明らかにし、想像した画像の意味内容を推定できることを示した。
この技術は、言語モデルの意味空間を用いて脳信号を解読することにより、被験者が想像している画像を推定するというもの。言語モデルの学習には、ウィキペディアにある大量の文章を用いた。実験では、視覚野周辺に頭蓋内電極を留置された17人の被験者が、風景、動物、文字、ヒトといったさまざまな意味内容が含まれている60分の動画を視聴。その際の頭蓋内脳波を計測することで、被験者が視聴している動画の意味内容を推定した。
さらに、研究チームは同技術を用いて、被験者が想像した意味内容の画像を表示するシステムを開発した。次に、頭蓋内脳波を計測されている4人の被験者に対し、頭蓋内脳波から推定された画像を250ミリ秒ごとに画面に表示。同時に、風景・文字・人の顔のうちから1つの指示を音声で被験者に与え、指示された意味の画像を視覚的に想像してもらった。すると、想像したカテゴリーの画像(風景・文字・人の顔)を画面に表示できることがわかった。
本研究成果は2022年3月18日に、英科学誌「コミュニケーション・バイオロジー(Communications Biology)」に公開された。
(中條)
-
- 人気の記事ランキング
-
- How AI and Wikipedia have sent vulnerable languages into a doom spiral AI翻訳のゴミに汚染された ウィキペディア、 マイナー言語にとどめ
- The three big unanswered questions about Sora 時間も資金も溶かす? AI動画SNS「Sora」3つの疑問
- Inside the most dangerous asteroid hunt ever 史上最も危険な小惑星 「2024 YR4」追った 科学者たちの60日間
- EV tax credits are dead in the US. Now what? 米EV減税が正式廃止、今後の動きをドイツの先例から予想