フラッシュ2023年10月3日
-
人工知能(AI)
視覚情報によるロボットのていねいな物体操作を実現=産総研
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]産業技術総合研究所の研究チームは、視覚情報から物体間に働く力を想起する人工知能(AI)技術を開発した。AIが視覚情報だけから、「崩しそう」「つぶしそう」と想像し、物体を壊さないように、人間らしい推論に基づく行動を立案することが可能になる。
研究チームは、画像1枚(カメラ1台)から未知の物体間に発生するおおまかな力分布を、AIを用いてリアルタイムで可視化することに成功。さらに、力分布を理解したロボットが、周辺の物体の損傷が小さくなるようにして指定された対象物を持ち上げるなどの行動ができることを確認した。
同チームは、力分布をAIで可視化するにあたって、物理シミュレーター上で物体間にかかる力を可視化した仮想的な経験データを構築。仮想的な経験から視覚と力の関係をAIに学習させた。機械学習における「ゼロショット転移」により、AIの学習に使われていない未知物体が対象物に含まれていても対応できるという。
今後、ロボットによるていねいな物体操作や、自動運転における事故予測などに役立つことが期待される。今回の成果は、2023年10月1日から5日までデトロイトで開催されるロボット分野の国際会議「IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS)2023」で発表される。
(中條)
-
- 人気の記事ランキング
-
- How AI and Wikipedia have sent vulnerable languages into a doom spiral AI翻訳のゴミに汚染された ウィキペディア、 マイナー言語にとどめ
- The three big unanswered questions about Sora 時間も資金も溶かす? AI動画SNS「Sora」3つの疑問
- 2025 Climate Tech Companies to Watch: HiNa Battery Technology and its effort to commercialize salt cells 気候テック10:ナトリウムイオンでリチウム代替狙う中国ハイナ
- EV tax credits are dead in the US. Now what? 米EV減税が正式廃止、今後の動きをドイツの先例から予想