
グーグルが「長く使うほど速くなる」コンピューターを研究中
コンピューターは通常、長年の使用で処理が遅くなっていくが、機械学習によって、使い続けるうちにより速く処理ができるようにする研究が進んでいる。近年、ムーアの法則が減速し、チップの基本設計の変化も見られなくなってきたことから、いずれ役に立つ技術となりそうだ。 by Will Knight2018.03.23
コンピューターは一般的に、長年使用していると次第に処理が遅くなる。プロセッサーが新しいソフトウェアに対応するのが難しくなるからだ。アップルなどはバッテリーの劣化に合わせて、意図的にiPhoneの処理速度を減速させている。だがグーグルは、ノートPCやスマホを使っているうちに、学習によってより良くより速く処理ができるようにする研究をしている。
研究者が取り組んだのは、プリフェッチと呼ばれるコンピューティングの一般的な問題だ。コンピューターが情報を処理する速度は、メモリーからチップに情報を読み込む速度よりもかなり速い。ボトルネックを避けるために、コンピューターはどの情報が必要になりそうかを予測し、その情報を前もって読み込もうとする。これがプリフェッチだ。だが、コンピューターがより強力になるつれ、この予測は次第に困難になる。
3月上旬に発表された論文によれば、グーグルのチームは、大規模な擬似的ニューラル・ネットワークを使う人工知能(AI) …
- 人気の記事ランキング
-
- Inside the tedious effort to tally AI’s energy appetite 動画生成は別次元、思ったより深刻だったAIの電力問題
- Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
- What’s next for AI and math 数学オリンピックで「人間超え」のAIは数学者になれるか?
- IBM aims to build the world’s first large-scale, error-corrected quantum computer by 2028 IBM、世界初の大規模誤り訂正量子コンピューター 28年実現へ
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法