オープンAI(OpenAI)は2019年2月、最新の言語モデル「GPT-2」を発表した。発表が大々的にではなくむしろ控えめだったのは、GPT-2がデマの自動大量生産に利用されるのを恐れたからだった。さらにこの発表によって、AIコミュニティで続いているフェイクニュースの検出方法に関する議論に拍車がかかっている。MIT-IBMワトソンAI研究所とハーバードNLPの研究チームによる新しい実験では、「説得力のある文章を書ける言語モデルは、他のモデルが生成した一節を見抜けるかどうか」が考察された。
この仮説を成す考え方は単純なものだ。言語モデルは文の流れにおいて次の単語を予測して文章を作り出していく。そこで、与えられた一節の単語を容易に予測できれば、おそらく同じ言語モデルによって書かれたも …
- 人気の記事ランキング
-
- What you may have missed about GPT-5 肩透かしだったGPT-5、オープンAIの方針転換に危うさ
- Promotion MITTR Emerging Technology Nite #34 【9/10開催】伝説の玩具「アームトロン」開発者が誕生秘話を語る
- Five ways that AI is learning to improve itself 迫る「知能爆発」の兆し、 AIによるAIの進化は 5つの領域で起きている
- Meet the early-adopter judges using AI 司法を侵食するAIの功罪、 米国では判事も ハルシネーションに騙された
- Losing GPT-4o sent some people into mourning. That was predictable. 「友を失った」ユーザーの悲痛、オープンAIが見誤ったAIへの愛着