

人工知能(AI)システムは概して膨大な計算を必要とする。そのため近年、AIハードウェア研究者たちは、正しい解を導き出せる範囲内であれば精度をある程度犠牲にしてでも、膨大な数字を記録しなければならない演算を回避する方法を模索している。
深層学習の基盤をなすネットワークには数十のレイヤーがあり、ネットワークを訓練する段階では、数百万から数十億の変数を正確な値に合わせて調整しなければならない。数百の専用チップを使ったこの演算には、数日から数週間を要することもよくある。
IBMの研究グループの一員であるシャオ・スンは、こうした演算を3桁、あるいは2桁の数字を使って実行する方法を研究している(参考までに、現代のノートパソコンやスマートフォンは20桁の数字の演算を実行しており、機械学習専用のチップのほとんどは5桁の数字を扱う)。
研究のポイントは、演算全体で小さな数字だけを扱える手法を見い出すことだ。何兆回もの演算を実行するのは同じだが、ひとつひとつの演算が通常よりもはるかに簡単になるのだ。これにより、時間もエネルギーも節約できる。2桁の数字の処理は、10桁以上の数字の処理と比べ、20倍以上もエネルギー効率に優れていることが、スンとIBMのチームの論文で示されている。
2021年2月に、IBMはスンの研究をベースにした新たなチップを発表した。この製品の特徴は、ニューラルネットワークの訓練を、3桁の数字の演算を主体にして実行することだ。IBMはこのチップの用途として、クラウドコンピューティングセンターの大規模ニューラルネットワークの訓練だけでなく、スマートフォン上でのローカルデータを使った訓練も想定している。
( Patrick Howell O’Neill)
- 人気の記事ランキング
- Meet the people who use Notion to plan their whole lives 生産性マニアが「Notion」で生活の95%を回す理由
- MITTR Emerging Technology Nite #23 Plus MITTR主催「生成AI革命2」開催(オンライン&東京)のご案内
- A chatbot that asks questions could help you spot when it makes no sense チャットGPT、「質問付き」回答で騙される人が減ることが判明
- Geoffrey Hinton tells us why he’s now scared of the tech he helped build ジェフリー・ヒントン独白 「深層学習の父」はなぜ、 AIを恐れているのか?
- Design thinking was supposed to fix the world. Where did it go wrong? 世界を変えるはずだった 「デザイン思考」とは 何だったのか?