主張:AI企業の暴走を止める「ホットライン」が必要な理由
AI企業の従業員が自社製品の抱えるリスクを知らせる内部通報は、通報者にとってハードルが高い。筆者は、専門家にもっと気楽に相談できるAIホットラインの設置を提案する。 by Kevin Frazier2024.09.24
- この記事の3つのポイント
-
- AIモデルのリリース前テストには限界があり、他のガバナンスツールも必要である
- AI研究機関の内部通報の仕組みは機能せず、オープンな批判が稀になりつつある
- 従業員が安全性の懸念を非公式に相談できる中間的な取り組みが求められている
ここ2~3年、テック企業各社が競い合ってこれまで以上に高度な人工知能(AI)モデルをリリースしており、規制当局は何度も不意を突かれている。新たな規制上の難問をもたらす一連の別のモデルがリリースされるのも、時間の問題である。たとえば、あとわずか数週間もすれば、AIの能力をこれまでよりも大幅に押し上げることを約束する「GPT-5(GPT-5)」が、オープンAI(OpenAI)からリリースされると見られている。現在のところ、過剰なリスクをもたらすモデルのリリースを遅らせたり防いだりすることは、誰であろうとほぼできないように思われる。
AIモデルをリリースする前にテストすることは、特定のリスクを軽減するための一般的なアプローチであり、規制当局がコストとメリットを比較評価するのに役立つかもしれない。そして危険すぎると判断された場合は、そのモデルのリリースを阻止できる可能性がある。しかし、そのようなテストの精度と包括性には、物足りない点が多い。AIモデルは、安全上の懸念が生じるのを避けるため能力の一部を隠すことによって、そのような評価を「出し抜く」かもしれない。また、それらの評価では、ある1つのモデルがもたらすリスクのすべてを確実に明らかにできない可能性もある。さらに、範囲が限られていることも評価を困難にしている。現在のテストでは、さらなる調査が当然に必要なリスクを、すべて明らかにすることはできない可能性が高い。また、誰が評価を指揮し、評価者らの持つバイアスがテストにどのような影響を与える可能性があるのかという問題もある。このような理由から、評価と並行して、他のガバナンスツールも用いる必要がある。
そのようなツールの1つとなり得るのが、研究機関内の内部通報の仕組みだ。理想的には、こうした機関のスタッフは、自分にはAIの安全性に関する懸念を定期的かつ完全に同僚たちと共有する権限があり、その懸念に対して同僚たちが行動を起こすことが期待できると感じているべきである。しかし、AI研究機関では、オープンな批判が促進されているどころか、むしろ稀になりつつあるという証拠が増えている。つい3カ月前、オープンAIや他の研究機関の元スタッフと現スタッフの13人が公開書簡を書き、もし自分たちが、法を犯すほどではないにせよ疑わしい企業行動を公表しようとすれば、報復される恐れがあることを表明した。
警告の発し方
理論上は、外部に内部告発者保護の仕組みを設けることが、AIリスクを発見する上で貴重な役割を果たす可能性がある。こうした仕組みは、企業の行為を公表したために解雇された従業員を保護し、不十分な内部通報の仕組みを補うのに役立つと考えられる。米国ではほぼすべての州で、随時雇用解除に対する公序良俗上の例外規定が設けられている。つまり、解雇された従業員が、安全でなかったり、違法な企業活動を告発したことで報復を受けたりした場合、雇用主に救済措置を求めることができる。しかし実際のところ、この例外規定はほとんど従業員の保障になっていない。内部告発事件では、裁判官は雇用主に有利な判断を下す傾向がある。どのようなAIの開発・展開が安全でないと言えるのか、まだ社会が何らかのコンセンサスに達していない現状を考えると、AI研究機関がそのような内部告発訴訟を無事にやり過ごす可能性は特に高いと思われる。
オープンAIの元従業員ウィリアム・サンダースを含む前述の13人のAI従業者が新しい種類の「警告する権利」を求めたのも …
- 人気の記事ランキング
-
- A tiny new open-source AI model performs as well as powerful big ones 720億パラメーターでも「GPT-4o超え」、Ai2のオープンモデル
- Geoffrey Hinton, AI pioneer and figurehead of doomerism, wins Nobel Prize in Physics ジェフリー・ヒントン、 ノーベル物理学賞を受賞
- The coolest thing about smart glasses is not the AR. It’s the AI. ようやく物になったスマートグラス、真価はARではなくAIにある
- Geoffrey Hinton tells us why he’s now scared of the tech he helped build ジェフリー・ヒントン独白 「深層学習の父」はなぜ、 AIを恐れているのか?