フラッシュ2023年10月3日
- 人工知能(AI)
視覚情報によるロボットのていねいな物体操作を実現=産総研
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]産業技術総合研究所の研究チームは、視覚情報から物体間に働く力を想起する人工知能(AI)技術を開発した。AIが視覚情報だけから、「崩しそう」「つぶしそう」と想像し、物体を壊さないように、人間らしい推論に基づく行動を立案することが可能になる。
研究チームは、画像1枚(カメラ1台)から未知の物体間に発生するおおまかな力分布を、AIを用いてリアルタイムで可視化することに成功。さらに、力分布を理解したロボットが、周辺の物体の損傷が小さくなるようにして指定された対象物を持ち上げるなどの行動ができることを確認した。
同チームは、力分布をAIで可視化するにあたって、物理シミュレーター上で物体間にかかる力を可視化した仮想的な経験データを構築。仮想的な経験から視覚と力の関係をAIに学習させた。機械学習における「ゼロショット転移」により、AIの学習に使われていない未知物体が対象物に含まれていても対応できるという。
今後、ロボットによるていねいな物体操作や、自動運転における事故予測などに役立つことが期待される。今回の成果は、2023年10月1日から5日までデトロイトで開催されるロボット分野の国際会議「IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS)2023」で発表される。
(中條)
- 人気の記事ランキング
- The Biggest Questions: Are we alone in the universe? 地球外生命体は存在するか? 人類の先入観を超えた探索
- Google DeepMind wants to define what counts as artificial general intelligence 汎用人工知能(AGI)とは何か? ディープマインドが定義を提案
- Text-to-image AI models can be tricked into generating disturbing images AIモデル、「脱獄プロンプト」で不適切な画像生成の新手法
- This mathematician is making sense of nature’s complexity 幾何学で世界の複雑さを理解する、異才数学者の型破りな方法論