オープンAI(OpenAI)は2019年2月、最新の言語モデル「GPT-2」を発表した。発表が大々的にではなくむしろ控えめだったのは、GPT-2がデマの自動大量生産に利用されるのを恐れたからだった。さらにこの発表によって、AIコミュニティで続いているフェイクニュースの検出方法に関する議論に拍車がかかっている。MIT-IBMワトソンAI研究所とハーバードNLPの研究チームによる新しい実験では、「説得力のある文章を書ける言語モデルは、他のモデルが生成した一節を見抜けるかどうか」が考察された。
この仮説を成す考え方は単純なものだ。言語モデルは文の流れにおいて次の単語を予測して文章を作り出していく。そこで、与えられた一節の単語を容易に予測できれば、おそらく同じ言語モデルによって書かれたも …
- 人気の記事ランキング
-
- Inside the tedious effort to tally AI’s energy appetite 動画生成は別次元、思ったより深刻だったAIの電力問題
- Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
- IBM aims to build the world’s first large-scale, error-corrected quantum computer by 2028 IBM、世界初の大規模誤り訂正量子コンピューター 28年実現へ
- What’s next for AI and math 数学オリンピックで「人間超え」のAIは数学者になれるか?
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法