KADOKAWA Technology Review
×
無料の会員登録で、記事閲覧数が増えます
It’s Easy to Slip Toxic Language Past Alphabet’s Toxic Comment Detector

グーグル系企業の暴言検出ツールで明らかになった機械学習の限界

言葉の意味までは理解できない機械学習の限界が、グーグル系企業の暴言検出ツールで明らかになった。 by David Auerbach2017.02.27

2月23日、アルファベット(グーグル)はWebサイト上の有害なコメントを識別する機械学習サービス「パースペクティブ」を発表した。開発したのはグーグル傘下の「ジグソー」(インターネットをより安全で秩序のある場所にするためのテクノロジーを開発する企業)だ。しかし、実際にパースペクティブを試すと、それほど精度は高くない。

パースペクティブは1~100の「有害度」(議論を招きそうな、下品または無礼、理不尽なコメント)でコメントにレートを付ける。たとえば「くたばれ、トランプの支持者」は極めて有害と判定されるが「正直、私はどちらも支持している」は有害とはみなされない。しかしパースペクティブには、コメントの裏にある感情までは検知できない問題がある。MIT Technology Reviewが12月にジグソーのサービスを試したときから予測した問題だ(「グーグルが目指す暴言のないネット社会は全体主義にそっくり」参照)。

「トランプは最悪」は有害度96%と判定されたが、ネオナチの隠語「14/88」(14は白人至上主義、88はハイルヒトラーを意味する)はたった5%だった。「テロの脅威があるイスラム教徒は少数だ」が79%有害と判定されたのに対して「人種戦争勃発中」は24%だった。「ヒトラーは反ユダヤ主義だった」が70%で、「ヒトラーは反ユダヤ …

こちらは会員限定の記事です。
無料登録すると1カ月10本までご利用いただけます。
こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
ザ・デイリー重要なテクノロジーとイノベーションのニュースを平日毎日お届けします。
公式アカウント