音声アシスタントは
どんなに訓練しても
本物の知能にはなれない
現在の人工知能(AI)アシスタントはある程度は優秀だが、会話における人間との違いは歴然としている。会話をする際に、言語で語られたことが本当に何を意味しているのかを理解するためには、明示的に発せられた言語の隙間を埋めるための常識が必要となるからだ。 by Will Knight2018.03.28
Siriやアレクサ(Alexa)が完璧からほど遠いのは明らかだが、機械学習の着実な進歩によって、近い将来、人工知能(AI)アシスタントが、しっかりと物が言えるヘルパーとして使えるようになるのではないかと期待されている。だが新たなテストによって、AIシステムが本当に言語を習得するためには、根本的に異なるアプローチが必要であることが明らかになったかもしれない。
シアトルを拠点とする非営利団体アレン人工知能研究所(AI2)が開発したテスト「AI2論理的推論チャレンジ(AI2 Reasoning Challenge:ARC)」では、小学校レベルの科学の問題が複数選択式で出題される。各問題に答えるためには、世界の仕組みをある程度理解している必要がある(同プロジェクトについての論文はこちら)。
問題は以下のようなものだ。
こうした問題は、プラスチックが成長しないことを知っていれば誰にでも解ける。小さな子どもでも持っている世界に関する常識があれば答えられる。
こうした常識が、音声アシスタントやチャットボット、翻訳ソフトウェアなどに搭載されているAIには欠けている。それで、AIはたやすく混乱してしまうのだ。
機械学習を用いている言語シ …
- 人気の記事ランキング
-
- This scientist rewarmed and studied pieces of his friend’s cryopreserved brain 10年冷凍保存の脳は「驚くほど良好」——蘇生は「まったく別の話」
- Future AI chips could be built on glass AIチップの熱問題、解決策は「ガラス」 年内に商業生産へ
- What do new nuclear reactors mean for waste? 新型原子炉が続々登場、核廃棄物管理の「手引き」は書き直せるか
- The Pentagon is planning for AI companies to train on classified data, defense official says 【独自】米国防総省、軍事機密データでAIモデルの訓練を計画