大規模言語モデル(LLM)は、情報の処理に非常に優れ、膨大なデータの中から適切な情報を抽出し、自信をもって回答を生成する。これらの能力は「知性」とは異なるものの、人間の脳と共通する部分もある。例えば、どちらも情報処理システムを持ち、生物学的または人工的なニューロンを用いて計算をする。
現在、人工知能(AI)研究の新たな分野として、人間の脳から得られる洞察をAIシステムに適用する試みが進められている。最終的には、より強力で実用的なAIを開発する道を拓くかもしれない。
アンナ・イワノワ(30歳)は、これらのモデルが何をできるのか、そして何ができないのかを明らかにしようとしている。彼女はジョージア工科大学の心理学助教授であり、認知科学者が人間の脳を研究する際に用いる手法をAIモデルに適用している。
例えば、神経科学者たちは、脳の異なる領域が特定の認知機能に関与しているのか、それともすべての領域が多目的に機能するのかを研究してきた。こうした疑問は、人工ニューラル・ネットワークの内部構造を理解する鍵になるとイワノワは考えている。
イワノワは、上記のような疑問こそが、人工ニューラルネットの内部構造と、モデルがなぜそのように機能するのかを理解する鍵であると考えている。彼女とチームは、LLMが言語使用に関してどのように機能するのかを研究している。特に、形式言語能力(文法や規則の理解)と、機能言語能力(推論や社会的認知を伴う言語理解)の違いに注目。その過程で、「人生の意味とは(後略)」といった質問をモデルに投げかけ、その回答を分析した。
研究の結果、LLMは形式言語能力には優れているが、機能言語能力を必要とするテストでは多くの場面で失敗することが分かった。「この違いが何を意味するのかを解明しようとしています」とイワノワは話す。この研究は、AIの内部構造を理解するだけでなく、人間の脳をより深く理解する手助けにもなるかもしれない。
神経科学の知見がすべて人工システムに転用できるわけではないが、同じ手法を適用できることは興味深いとイワノワは述べる。彼女は、AIモデルの入力がシステムの動作にどのような影響を与えるのかを解明することで、より人間にとって有用なAIを開発できると期待している。
- 人気の記事ランキング
-
- Quantum physicists have shrunk and “de-censored” DeepSeek R1 量子技術でDeepSeekを55%小型化、「検閲解除」にも成功
- Promotion Innovators Under 35 Japan Summit 2025 2025年のイノベーターが集結「IU35 Summit」参加者募集
- Google’s new Gemini 3 “vibe-codes” responses and comes with its own agent グーグルが「Gemini 3」発表、質問に応じて回答形式もAIが判断
- How to help friends and family dig out of a conspiracy theory black hole 家族が陰謀論にハマったら: 専門家が語る、 5つの現実的アプローチ
- What is the chance your plane will be hit by space debris? 空からゴミが降ってくる—— 衛星10万基時代のリスク、 航空への影響は?【解説】
