フラッシュ2022年3月1日
-
0.2秒後の表情をAIで予測、3Dアバターに反映=KDDI総研
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]KDDI総合研究所は、画像認識技術で抽出した顔の表情データから、人工知能(AI)で未来の表情を予測する技術を開発した。3Dアバターを用いた接客や会議、バーチャルイベントなどに利用することで、現実空間の人のまばたきや口の動きを遅延なく表現でき、仮想空間上でより快適な体験を提供することが可能となる。
一般的に、利用者の表情を認識し、3Dアバターに反映させるまでには遅延が生じる。快適に会話するためには、映像や音声の遅延を0.15秒以内に抑えることが必要とされている。KDDI総合研究所は、AIを利用して0.2秒後の表情を予測し、常に先読みしてアバターを描画することで、表示の遅延を相殺した。
顔の表情は、手や足といった骨格の動作と比較して、時系列データが急激かつ複雑に変化することから、瞬時に高精度な予測をすることが難しい。今回、同研究所は、機械学習モデル(再帰型ニューラルネットワーク)への入力データとして、表情データそのものに加え、表情データの単位時間当たりの変化量を使用することで、処理の負荷を増やすことなく、未来の表情データを高精度に予測できるようにした。
(中條)
-
- 人気の記事ランキング
-
- How to run an LLM on your laptop チャットGPTからの卒業:自分のパソコンでLLMを動かしてみよう
- Promotion MITTR Emerging Technology Nite #34 【9/10開催】伝説の玩具「アームトロン」開発者が誕生秘話を語る
- On the ground in Ukraine’s largest Starlink repair shop <現地ルポ>ウクライナの 生命線「スターリンク」 1万台超を直した非公式工場
- Why recycling isn’t enough to address the plastic problem リサイクルだけでは「プラスチック問題」を解決できない理由
- In a first, Google has released data on how much energy an AI prompt uses 1クエリでレンジ1秒分、グーグルがGeminiの消費電力を初公開