Daniel Omeiza ダニエル・オメイザ (31)
自動運転車における「説明可能性」の問題に取り組み、車の動作に関する、視覚および言語ベースの説明を自動生成するモデルを開発している。
ニューラルネットワーク(Neural networks)は、システム設計者でさえ良く理解できないような決定を下すことがよくある。この「説明可能性」という問題のせいで、偏った結果や不正確な結果といった欠陥が修正されにくくなっている。ダニエル・オメイザは、自動運転車における説明可能性の問題解決に取り組んでおり、車が特定の反応を示す理由を、エンジニアや一般ドライバーに「視覚と言語ベースで」説明する技術を開発している。
オメイザの最新の研究は、車の認知と意思決定計画システムをデータ解析する決定木(デシジョンツリー)技術を利用して、車の動作に関する解説(聴覚的説明、運転指示、視覚的グラフなど)を自動生成するというものだ。オメイザのモデルは、さまざまな自律走行車に対応できる柔軟性を備えており、車が過去に記録したデータを使用するか、あるいは走行中の車両行動に関する情報を処理して、もっともらしい説明を生成できる。
オメイザは現在、交通法規をシステムに統合するための作業を進めている。「自動運転車の安全性を高め、人工知能(AI)エンジニアがより効率的にシステムをコーディングできるようにしたい」という願いがオメイザの動機となっている。彼は、自分が開発したモデルによって、AI技術に対する消費者の信頼を高めたいと言う。「深層学習モデルは、『説明なしではシステムを信頼できない』という人から敬遠される場合がありますから」。
(テイト・ライアン・モズリー)
- 人気の記事ランキング
-
- A tiny new open-source AI model performs as well as powerful big ones 720億パラメーターでも「GPT-4o超え」、Ai2のオープンモデル
- The coolest thing about smart glasses is not the AR. It’s the AI. ようやく物になったスマートグラス、真価はARではなくAIにある
- Geoffrey Hinton, AI pioneer and figurehead of doomerism, wins Nobel Prize in Physics ジェフリー・ヒントン、 ノーベル物理学賞を受賞
- Why OpenAI’s new model is such a big deal GPT-4oを圧倒、オープンAI新モデル「o1」に注目すべき理由