オープンAI(OpenAI)は2019年2月、最新の言語モデル「GPT-2」を発表した。発表が大々的にではなくむしろ控えめだったのは、GPT-2がデマの自動大量生産に利用されるのを恐れたからだった。さらにこの発表によって、AIコミュニティで続いているフェイクニュースの検出方法に関する議論に拍車がかかっている。MIT-IBMワトソンAI研究所とハーバードNLPの研究チームによる新しい実験では、「説得力のある文章を書ける言語モデルは、他のモデルが生成した一節を見抜けるかどうか」が考察された。
この仮説を成す考え方は単純なものだ。言語モデルは文の流れにおいて次の単語を予測して文章を作り出していく。そこで、与えられた一節の単語を容易に予測できれば、おそらく同じ言語モデルによって書かれたも …
- 人気の記事ランキング
-
- This company claims a battery breakthrough. Now they need to prove it. すべてのパラメーターが矛盾——「出来すぎ」全固体電池は本物か?
- OpenAI’s “compromise” with the Pentagon is what Anthropic feared アンソロピック排除の裏で進んだオープンAIの軍事契約、その代償は
- AI is rewiring how the world’s best Go players think 「アルファ碁」から10年、 AIは囲碁から 創造性を奪ったのか
- How uncrewed narco subs could transform the Colombian drug trade 中には誰もいなかった—— コカイン密輸組織が作った 「自律潜水ドローン」の脅威