
グーグルが「長く使うほど速くなる」コンピューターを研究中
コンピューターは通常、長年の使用で処理が遅くなっていくが、機械学習によって、使い続けるうちにより速く処理ができるようにする研究が進んでいる。近年、ムーアの法則が減速し、チップの基本設計の変化も見られなくなってきたことから、いずれ役に立つ技術となりそうだ。 by Will Knight2018.03.23
コンピューターは一般的に、長年使用していると次第に処理が遅くなる。プロセッサーが新しいソフトウェアに対応するのが難しくなるからだ。アップルなどはバッテリーの劣化に合わせて、意図的にiPhoneの処理速度を減速させている。だがグーグルは、ノートPCやスマホを使っているうちに、学習によってより良くより速く処理ができるようにする研究をしている。
研究者が取り組んだのは、プリフェッチと呼ばれるコンピューティングの一般的な問題だ。コンピューターが情報を処理する速度は、メモリーからチップに情報を読み込む速度よりもかなり速い。ボトルネックを避けるために、コンピューターはどの情報が必要になりそうかを予測し、その情報を前もって読み込もうとする。これがプリフェッチだ。だが、コンピューターがより強力になるつれ、この予測は次第に困難になる。
3月上旬に発表された論文によれば、グーグルのチームは、大規模な擬似的ニューラル・ネットワークを使う人工知能(AI) …
- 人気の記事ランキング
-
- An ancient man’s remains were hacked apart and kept in a garage 切り刻まれた古代人、破壊的発掘から保存重視へと変わる考古学
- AI reasoning models can cheat to win chess games 最新AIモデル、勝つためなら手段選ばず チェス対局で明らかに
- This artificial leaf makes hydrocarbons out of carbon dioxide 人工光合成が次段階へ、新型人工葉が炭化水素合成に成功
- AGI is suddenly a dinner table topic 膨らんではしぼむ「AGI」論、いまや夕食時の話題に