人工知能、囚人のジレンマで協力プレイ
コネクティビティ

AI Can Beat Us at Poker—Now Let’s See If It Can Work with Us 人工知能、囚人のジレンマで協力プレイ

囚人のジレンマの状況で、機械同士は人間同士、人間と機械よりも協力してプレイできることがわかった。チェスや囲碁、ポーカーからスタークラフトまで、単純に勝利を目指して進化してきたAI研究の次の課題は人間との協力だ。 by Tom Simonite2017.04.17

人工知能(AI)の進歩は、長年、チェスやバックギャモン、囲碁等のボードゲームの習得度で測られてきた。そして今、研究者はポーカースタークラフト(StarCraft)等のコンピューター・ゲームを対象にしている。

マサチューセッツ工科大学(MIT)のイヤド・ラーワン教授は、歴史上の業績に敬意を払いつつ、勝負で人間を直接打ち負かすことに着目することは、AIの能力を評価したり進展させたりする観点でいえば、他の方向性を無視することにつながってきたという。スマートマシンの普及が確実な以上、人間との協力を学ぶソフトウェアを創り出す方向に、より大きな努力が向けられるべきだ、とラーワン教授はいう。

「人間との協力は、次の重要な課題です。AIは特に人類にとって代わる必要はないのです。AIは人類とともに生きなければならないのです。人間同士の関係の多くは、ゼロサム・ゲームではありません。どういうわけか、この点が、野心的なAI計画の盲点になっていたのです」

ラーワン教授は、米国や英国、フランス、オーストラリア、アラブ首長国連邦の共同研究者とともに、この盲点への関心を呼び起こそうとしようとしてきた。国際的な研究チームは、最近の研究で、人間がどう協力しあうか(あるいは、協力しないか)を研究するために使われている行動科学のシンプルなゲームを、アルゴリズムがどう人間との協力を学べるかを検証するために応用している。

研究で使われているゲームのひとつに「囚人のジレンマ」がある。ゲーム理論の研究で定番の理論であり、囚人役のプレイヤーが、お互いを裏切るかどうかを判断する。単純だが、気候政策や広告などの複雑な分野で戦略の有利不利を分析するのにも使える。

当初得られた結果は、人間とAIのプレイヤーの間での協力が、人間同士の協力よりも少なく、研究者を落胆させた。そこで研究者は、人間とアルゴリズムの両方に、ゲーム前に19個の語句メニュー(「私が言った通りにしろ」、「お前を懲らしめてやる」、「自分の戦略を変えようと思う」、「もう一度チャンスをください」など)で会話できるようにしたところ、変化が起きた。

この研究に関わったブリガムヤング大学のジェイコブ・クランダール准教授は「機械が話し始めた瞬間、人間からまったく違う反応が出たのです。参加者は、人間と機械を見分けるのに苦労していました」という。協力には二者が必要だが、シンプルなメッセージを使うだけで、機械は人間に働きかけ、人間は協力する気になったのだ。

検証された3種類のゲームで、人間はどの場合でも別の人間のプレイヤーと協力する場合とほぼ同じ程度、機械のプレイヤーとも協力した。全体的に、ゲームとしては、機械同士のペアは人間よりも協力した(人間のプレイヤーと違って、機械は決して嘘をつかなかった)ため、平均的に機械対機械のペアのほうが最高点をとった。

囚人のジレンマの状況で、人間よりも巧みに判断できるようになったアルゴリズムは、どの戦略が実際に有利だったのかを他の参加者の行動に基づいて学習する前に、あるゲームで有利な戦略は何か事前に計算する。もちろん、このアルゴリズムがそのまま将来の人間・ロボット関係の基礎になりそうにはない。むしろ、ラーワン教授の意図は、協力を検証できることを実験で示したり、人間と機械の協力という発想を深めていく今後の研究を活性化したりすることにある。

アレン人工知能研究所(シアトル)のオレン・エチオーニ所長は、そうなることを願っている。「人類が手にするべき未来は、職場で人間と機械が協力する未来です。したがって、こうした形の協力を研究することは理にかなっています」

エチオーニ所長は、単純な行動科学のゲームから、より複雑なシナリオへの移行には、かなりの努力が必要だという。複雑な状況での協力には、他のプレイヤーとの意思を疎通するための言語をよく習得したソフトウェアが必要になるだろう。囲碁やスタークラフトで人間を負かすソフトウェアの開発では問題にならない。とはいえ、研究者はボードゲームを使った研究を諦める必要はない。エチオーニ所長は「リスク」や「ディプロマシー」といったボードゲーム(プレイヤーは同盟や取引などを積み重ねる)が、機械の協力スキルを探求する試験台になるのではないか、という。