アイトラッキングの価格を下げてスマホに搭載できるまで小型化するテクノロジー
コネクティビティ

Control Your Smartphone with Your Eyes 目で操作するスマホを
MITが研究中

研究者が開発したモバイルアプリは目の動きでゲームができるくらい、いろいろ操作できる by Rachel Metz2016.07.02

アイトラッキング(視線追跡)テクノロジーをスマートフォンに搭載するには、安価で、小さくて、高精度である必要がある。そこでマサチューセッツ工科大学(MIT)、ジョージア大学、ドイツのマックス・プランク情報科学研究所の研究者は、ユーザーがどこを見ているのかをリアルタイムで識別するために、クラウドソーシングで視線情報を収集したデータをソフトウェアに学習させている。

プロジェクトメンバーによると、ソフトウェアの学習により、ユーザーがどこを見ているのか、携帯電話では約1cm、タブレットでは約1.7cmの精度で判別できるという。

スマートフォンの画面の大きさを考えると、精度不足は否めない。MITの大学院生で、今週開催されたコンピューター・ビジョン会議で発表された論文の共著者であるアティディア・コースラ研究員は「商用アプリケーションに利用できる段階の精度ではない」と述べた。

だがコースラ研究員は、さらにデータが集まればシステムの精度は高まると信じている。従来のアイトラッキングは高価で、専用の機械が必要で、電話やタブレットなどの電子機器に機能を追加するのはやや無理があった。だが、開発中のアイトラッキングテクノロジーを実用化できれば、タップやスワイプすることなく、ゲームで遊んだり、スマートフォンを操作できるようになる。

スマートフォンで動作するアイトラッキングテクノロジーを開発するために、研究者はまずユーザーの視線のデータを集めるアプリを作った

研究はデータの収集から始まった。GazeCaptureというiPhoneアプリを作成し、研究所ではなく、日常の環境でユーザーが携帯電話をどう見るのかを調べた。スマートフォンの画面にパッと現れるドット(点)を見たときのユーザーの視線を携帯電話の前面カメラで録画し、ユーザーがアプリに集中していることを確かめるために「L」「R」と表示されるドットに応じて、画面の左側か右側をユーザーにタップさせた。

GazeCaptureで集めた情報は、iPhone上で動作するiTrackerというソフトウェアの学習データになり、スマートフォンのカメラがユーザーの顔をキャプチャし、頭や目の位置、その向きといった要素を認識し、視線が画面上のどこに集中しているかを割り出す。

コースラ研究員によると、これまで約1500人がGazeCaptureアプリを利用したが、1万人のデータを集めれば、iTrackerの有効精度は5mmにまで向上すると考えている。このレベルの精度があれば、さまざまなアイトラッキングアプリが利用できる。

コースラ研究員の望みは、医療診断で利用されることだ。複数の研究で、目の動きで統合失調症脳しんとうなどを診断できる可能性が分かっている。

アイトラッキングを研究しているクレムゾン大学のアンドリュー・ダハウスキー教授は、研究チームがモバイル機器上で動作するiTrackerを実用化できれば「大変」有益だと考えている。一方で、iTrackerが高速に動作し、バッテリーを消費し過ぎないことが重要だと述べた。

ダハウスキー教授もiTrackerからピクセル単位の精度になるとは考えていないが「それでもかなりよくなるかもしれない」とした。