オープンAI(OpenAI)は2019年2月、最新の言語モデル「GPT-2」を発表した。発表が大々的にではなくむしろ控えめだったのは、GPT-2がデマの自動大量生産に利用されるのを恐れたからだった。さらにこの発表によって、AIコミュニティで続いているフェイクニュースの検出方法に関する議論に拍車がかかっている。MIT-IBMワトソンAI研究所とハーバードNLPの研究チームによる新しい実験では、「説得力のある文章を書ける言語モデルは、他のモデルが生成した一節を見抜けるかどうか」が考察された。
この仮説を成す考え方は単純なものだ。言語モデルは文の流れにおいて次の単語を予測して文章を作り出していく。そこで、与えられた一節の単語を容易に予測できれば、おそらく同じ言語モデルによって書かれたも …
- 人気の記事ランキング
-
- Two Nobel Prize winners want to cancel their own CRISPR patents in Europe クリスパー特許紛争で新展開 ノーベル賞受賞者が 欧州特許の一部取り下げへ
- The coolest thing about smart glasses is not the AR. It’s the AI. ようやく物になったスマートグラス、真価はARではなくAIにある
- Sorry, AI won’t “fix” climate change サム・アルトマンさん、AIで気候問題は「解決」できません
- Space travel is dangerous. Could genetic testing and gene editing make it safer? 遺伝子編集が出発の条件に? 知られざる宇宙旅行のリスク