AIスピーカーをもっと賢く、エヌビディアが自然言語処理を超高速化
チップメーカーのエヌビディアは、GPUチップ上で動作する言語理解の人工知能(AI)プログラムの開発を支援するソフトウェアを発表した。機械学習モデルの訓練および訓練済みモデルの実行をスピードアップできるだけでなく、より大きな言語モデルを訓練することが可能となるという。 by Will Knight2019.08.19
人工知能(AI)はこの10年間で目覚ましい進歩を遂げたが、言語理解についてはまだお粗末としか言いようがない。試しにちょっとアレクサと機知に富んだ冗談を言い合ってみれば分かる。
数多くのAIアルゴリズムを実行しているコンピューターチップの製造メーカーであるエヌビディアは、この状況はもうすぐ変わると考えている。爆発寸前である言語理解の分野で利益を得ようと狙っているのだ。
エヌビディアは8月13日、同社製ハードウェア上でより洗練された方法で言語を扱うAIプログラムを、従来より容易に開発できるソフトウェアを発表した。このソフトウェアによって、新しい言語理解アルゴリズムの開発が加速し、チャットボットや音声アシスタントがよりすばやく応答したり、より賢くなったりするかもしれない。
エヌビディアはすでに、画像分類などのタスクを得意とする深層学習AIモデルの訓練向けにもっとも人気のあるチップを製造している。ただし、書き言葉や話し言葉に深層学習などの統計的機械学習法を適用するのは、伝統的にもっとずっと大変な作業となる。言語は複雑であり、曖昧だからだ。
それでもここ最近、重要な前進があった。深層学習に基づく言語理解の手法としてグーグルが開発した「トランスフォーマー(Transformer)」と「バート(BERT)」は、特に複数言語間の翻訳、文章の一部に関する質問への回答、さらには人間が作ったかのような文章の生成にも適していることが実証された。トランスフォーマーやバートの登場により、機械学習を使用して言語理解技術を進歩させることに対する関心が、学術界と産業界の間で一気に高まったのだ。
「トランスフォーマーとバートの組み合わせのインパクトは大変なものです」と語るのは、AIの一分野である自然言語処理(NLP)を専門とするハーバード大学の アレクサンダー・ラッシュ教授だ。「トランスフォーマーとバートは基本的に、あらゆるベンチマークにおいて …
- 人気の記事ランキング
-
- A tiny new open-source AI model performs as well as powerful big ones 720億パラメーターでも「GPT-4o超え」、Ai2のオープンモデル
- The coolest thing about smart glasses is not the AR. It’s the AI. ようやく物になったスマートグラス、真価はARではなくAIにある
- Geoffrey Hinton, AI pioneer and figurehead of doomerism, wins Nobel Prize in Physics ジェフリー・ヒントン、 ノーベル物理学賞を受賞
- Why OpenAI’s new model is such a big deal GPT-4oを圧倒、オープンAI新モデル「o1」に注目すべき理由