チャットボットの差別をなくすには人間の協力が必要だ

If chatbots are going to get better, they might need to offend you チャットボットの差別をなくすには人間の協力が必要だ

人工知能(AI)は会話をするのがずいぶん上手になってきた。しかしハイテク企業は、自社の評判が下がることを恐れて公開に慎重になっている。 by Jamie Condliffe2018.02.23

人工知能(AI)は会話をするのがずいぶん上手になってきた。しかしハイテク企業は、自社の評判が下がることを恐れて公開に慎重になっている。

ニューヨーク・タイムズ紙 によるとマイクロソフトとフェイスブックは、最近のAIの成果を取り入れて、会話の仕方を慎重に選択するより良いチャットボットの「新種」を開発しているという。 たとえば、マイクロソフトが開発したボットは、多数の候補の中から最も人間らしく聞こえる文章を選んで、「正確で親しみのある」応答を作成する。

だが、マイクロソフトが以前開発したひどい人種差別主義者の「テイ(Tay)」ボットのように失敗する場合もある。 フェイスブックによると、チャットボットが1000回発言をすると、そのうち1回は人種差別的か攻撃的、あるいは一般には受け入れ難いものになる可能性があるという。ボットが限られたデータを基に訓練されている以上、こうした発言を避けることはほぼ不可能だ。なぜなら、訓練セットに使用するオンライン上の会話には不快なテキストが必ず存在するからだ。

ボットを改善し続けようとするのなら、公開して実際にユーザーに使ってもらう必要がある。 だが、ハイテク企業は、ボットが間違ったことを言って、評判ががた落ちするのを恐れている。 ボットへの成長を望むなら、間違いに対してもっと寛容になる必要があるのかもしれない。