フラッシュ2022年2月22日
富士通、AI倫理モデルの作成・影響評価方法を公開
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]富士通は、国際機関や政府、企業などが発表している人工知能(AI)倫理ガイドラインに基づき、AIシステムの倫理上の影響を評価する方式を開発した。本方式に基づく評価手順書と適用例を2022年2月21日から無償公開している。
ヘルスケア、金融、ものづくり分野をはじめAI適用の裾野が広がる一方で、AIの下す判断にさまざまな「バイアス(偏り)」が存在することが問題視されている。こうした問題に対応するため、欧州委員会や米国防総省、OECD(経済協力開発機構)などはAI倫理ガイドラインを策定している。だが、こうしたガイドラインどおりにAIシステムが実装されているかどうかを判定しにくいという問題があった。
富士通が開発した方式は、自然言語で書かれたAI倫理ガイドラインの記述内容を構造化して倫理要件を明確化する手順と、倫理要件を実際に利用するAIシステムに対応づける手順で構成されている。同社は、国際的AIコンソーシアムであるパートナーシップ・オンAI(Partnership on AI)が公開しているAIインシデント・データベースを調べて、倫理上の課題が、AIシステム内部のコンポーネントの間や、関係者との間における情報のやりとりを指す「インタラクション」に対応づけられることに着目。AI倫理モデルを作成して、AIシステムにおいて考慮すべきガイドラインの項目を系統的に洗い出す独自の評価方式を開発した。
(中條)
- 人気の記事ランキング
- The Biggest Questions: Are we alone in the universe? 地球外生命体は存在するか? 人類の先入観を超えた探索
- Exclusive: Ilya Sutskever, OpenAI’s chief scientist, on his hopes and fears for the future of AI 独占:アルトマン解任前夜、 渦中の人物が語っていた 人工超知能への期待と恐怖
- Huawei’s 5G chip breakthrough needs a reality check 中国テック事情:ファーウェイ「独自チップ」衝撃も厳しい現実
- Covid hasn’t entirely gone away—here’s where we stand 新型コロナはもう「終わった」のか? 現状を整理する