アイリーン・ソライマン(ハギング・フェイス)

Irene Solaiman アイリーン・ソライマン(ハギング・フェイス)

生成AIが誰にとっても安全かつ適切に動作するように、AIモデルのリリース方法についての標準化された明確なプロセスを構築している。 by MIT Technology Review Editors2023.10.14

新しい生成AI(ジェネレーティブAI)モデルがリリースされると、チャットボットであれ、画像ジェネレーターであれ、その基礎となるモデルの能力が注目される。それに比べて、モデルのリリース方法やリリース対象者などの詳細、たとえばオープンソースであるかどうかや、商用利用にライセンスが必要かどうかといった点は、はるかに注目度が落ちる。しかし、このような決定は非常に重要だ。

たとえば、オープン性を高めると、モデルを監査されたり評価されたりする機会が増えるが、悪用される機会も増える。システムをより閉鎖的にすると、権力は集中するかもしれないが、悪用される可能性は制限されるだろう。

2019年当時、オープンAI(OpenAI)の研究者で公共政策部長を務めていたアイリーン・ソライマンは、チャットGPT(ChatGPT)の前身であるGPT-2のリリースに向けて、オープン性を高めつつ害悪を最低限に抑えるために、特定の保護措置のバランスを考慮した新しいアプローチを主導。新モデルを段階的にリリースすることで、テストとガードレール組み込みの時間をより多く確保できるようにした。現在、オープンAI、マイクロソフト、メタはそれぞれ、チャットGPT、新しいビング(Bing)検索、ラマ(LLaMA)にこのアプローチを採用している。

ソライマンはその後オープンAIを去り、現在はAIスタートアップ企業のハギング・フェイス(Hugging Face)でグローバル公共政策部長を務めている。ソライマンは、将来のAIモデルのリリース方法に関する標準化された明確なプロセスを構築する仕事を続けている。さらに、新しいAIシステムのデプロイ前にそのコミュニティの文化的価値を考慮に入れる方法の開発など、他の側面でもAIの安全に関する取り組みを継続している。

結局のところ、ソライマンを駆り立てているのは、開発者だけでなく、「生成AIシステムと直接つながっていないが、人工知能(AI)の影響を受ける可能性のある人」にも、生成AIが適切に動作するようにしたいという願いだという。つまりは、誰にとってもということだ。

(アイリーン・グオ)