GPT-3 GPT-3
文章を書いたり、話したりするのを学ぶ大規模な自然言語コンピューターモデルの開発は、世界をより深く理解して相互作用できる人工知能(AI)への大きな一歩となる。GPT-3は、これまでで最大規模かつ最も洗練された自然言語モデル …
by MIT Technology Review Editors 2021.04.27
文章を書いたり、話したりするのを学ぶ大規模な自然言語コンピューターモデルの開発は、世界をより深く理解して相互作用できる人工知能(AI)への大きな一歩となる。GPT-3は、これまでで最大規模かつ最も洗練された自然言語モデルだ。何千冊もの書籍やインターネット上の莫大な文章を使っ訓練されており、驚くほど、そして時には尋常ではないリアリズムで人間の書いた文章を真似できる。これまでに機械学習を用いて作られた言語モデルの中で最も優れているとされる所以だ。
だが、GPT-3は、自身が書いた文章を理解しているわけではない。そのため、内容が誤っていたり、意味不明だったりすることもある。また、GPT-3の訓練には莫大な計算能力やデータ、資金を必要であり、膨大な量の二酸化炭素排出につながる。そのため、並外れた資金力を持つ研究室でないと、こうしたモデルを開発できない。また、誤情報や偏見に満ちたインターネット上の文章を使って訓練されるGPT-3は、同じように偏った文章を生成することが多い。ウィル・ダグラス・ヘブンが、 GPT-3の巧妙な文章の一例を紹介し、その評価が割れている理由を説明している。
- 10 Breakthrough Technologies 2021