オープンAI(OpenAI)は2019年2月、最新の言語モデル「GPT-2」を発表した。発表が大々的にではなくむしろ控えめだったのは、GPT-2がデマの自動大量生産に利用されるのを恐れたからだった。さらにこの発表によって、AIコミュニティで続いているフェイクニュースの検出方法に関する議論に拍車がかかっている。MIT-IBMワトソンAI研究所とハーバードNLPの研究チームによる新しい実験では、「説得力のある文章を書ける言語モデルは、他のモデルが生成した一節を見抜けるかどうか」が考察された。
この仮説を成す考え方は単純なものだ。言語モデルは文の流れにおいて次の単語を予測して文章を作り出していく。そこで、与えられた一節の単語を容易に予測できれば、おそらく同じ言語モデルによって書かれたも …
- 人気の記事ランキング
-
- A new US phone network for Christians aims to block porn and gender-related content ポルノもLGBTも遮断、キリスト教徒向けMVNOが米国で登場
- Musk v. Altman week 1: Elon Musk says he was duped, warns AI could kill us all, and admits that xAI distills OpenAI’s models 「オープンAIを蒸留した」マスク対アルトマン第1週、法廷がざわめく
- Will fusion power get cheap? Don’t count on it. 核融合は本当に安くなるのか? 楽観論に「待った」をかける新研究
- The problem with thinking you’re part Neanderthal あなたの中にいる 「ネアンデルタール人」は 本当に存在するのか?