危険なAI技術はどう公開すべきか?オープンAIの手法をめぐり議論
知性を宿す機械

OpenAI has released the largest version yet of its fake-news-spewing AI 危険なAI技術はどう公開すべきか?オープンAIの手法をめぐり議論

オープンAIは大規模な言語モデル「GPT-2」を巡って、段階的な公開という手法を選んだ。フェイクニュースなどの悪用を懸念してのことだ。社会的影響の大きい研究成果をいかに世に送り出すべきか、議論を呼んでいる。 by Karen Hao2019.11.06

オープンAI(OpenAI)が今年2月に発表した言語モデル「GPT-2」は、あまりにも優れたフェイクニュースを生成してしまうことから、悪用を懸念したオープンAIが完全版の公開を中止したことで大きな注目を浴びた。オープンAIの方針に対して、人工知能(AI)研究コミュニティの評価は割れている。(悪用を防ぐ)賢明な予防策だと主張する研究者もいれば、ただの宣伝行為に過ぎないという研究者もいる。汎用人工知能(AGI)の開発に取り組むサンフランシスコの小規模な営利団体であるオープンAIは、今回選んだ手法が、大きなリスクを伴う研究の最適な扱い方を知るための重要な実験だと考えている。

最初のGPT-2の発表から6カ月経った今年8月。オープンAIの政策チームは、完全版を非公開とした決定による影響を調べた論文を発表した。同時に、完全版の半分のサイズとなるGPT-2の新バージョンを公表した。

今年5月、オープンAIは、完全版の公開を差し控えるとのスタンスから、「段階的公開」へとスタンスを変えた。モデルのより大きなバージョンを段階的に公開し、徐々に完全版へ近づけていく方法だ。2月に公開されたGPT-2は、完全版の8%のサイズしかないものだったが、5月に公開されたものは完全版の約4分の1サイズとなっている。こうしたプロセスの間に、オープンAIは一流の研究機関と提携し、完全版の与える影響についても研究した。

論文では、このプロセスを通じてオープンAIが学んだことが詳しく述べられている。段階的公開、研究提携契約ともに、GPT-2が悪意を持って使用される可能性についてオープンAIがよりよく理解し、予測するのに役立ったといい、将来的に再び取り組む価値があるプロセスだ …

こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。