フラッシュ2023年10月3日
- 人工知能(AI)
視覚情報によるロボットのていねいな物体操作を実現=産総研
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]産業技術総合研究所の研究チームは、視覚情報から物体間に働く力を想起する人工知能(AI)技術を開発した。AIが視覚情報だけから、「崩しそう」「つぶしそう」と想像し、物体を壊さないように、人間らしい推論に基づく行動を立案することが可能になる。
研究チームは、画像1枚(カメラ1台)から未知の物体間に発生するおおまかな力分布を、AIを用いてリアルタイムで可視化することに成功。さらに、力分布を理解したロボットが、周辺の物体の損傷が小さくなるようにして指定された対象物を持ち上げるなどの行動ができることを確認した。
同チームは、力分布をAIで可視化するにあたって、物理シミュレーター上で物体間にかかる力を可視化した仮想的な経験データを構築。仮想的な経験から視覚と力の関係をAIに学習させた。機械学習における「ゼロショット転移」により、AIの学習に使われていない未知物体が対象物に含まれていても対応できるという。
今後、ロボットによるていねいな物体操作や、自動運転における事故予測などに役立つことが期待される。今回の成果は、2023年10月1日から5日までデトロイトで開催されるロボット分野の国際会議「IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS)2023」で発表される。
(中條)
- 人気の記事ランキング
- The way whales communicate is closer to human language than we realized クジラの言語構造、想像以上に人間の言語に近かった
- Sam Altman says helpful agents are poised to become AI’s killer function サム・アルトマンが語った スマホ超えAIツールの姿 「人生を完全に把握」
- Three takeaways about the current state of batteries エネルギー革命の主役に躍り出た蓄電池、押さえておきたいデータ3つ
- How ASML took over the chipmaking chessboard ASMLはいかにして 半導体製造の「チェス盤」を 支配したのか