フラッシュ2022年2月22日
-
富士通、AI倫理モデルの作成・影響評価方法を公開
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]富士通は、国際機関や政府、企業などが発表している人工知能(AI)倫理ガイドラインに基づき、AIシステムの倫理上の影響を評価する方式を開発した。本方式に基づく評価手順書と適用例を2022年2月21日から無償公開している。
ヘルスケア、金融、ものづくり分野をはじめAI適用の裾野が広がる一方で、AIの下す判断にさまざまな「バイアス(偏り)」が存在することが問題視されている。こうした問題に対応するため、欧州委員会や米国防総省、OECD(経済協力開発機構)などはAI倫理ガイドラインを策定している。だが、こうしたガイドラインどおりにAIシステムが実装されているかどうかを判定しにくいという問題があった。
富士通が開発した方式は、自然言語で書かれたAI倫理ガイドラインの記述内容を構造化して倫理要件を明確化する手順と、倫理要件を実際に利用するAIシステムに対応づける手順で構成されている。同社は、国際的AIコンソーシアムであるパートナーシップ・オンAI(Partnership on AI)が公開しているAIインシデント・データベースを調べて、倫理上の課題が、AIシステム内部のコンポーネントの間や、関係者との間における情報のやりとりを指す「インタラクション」に対応づけられることに着目。AI倫理モデルを作成して、AIシステムにおいて考慮すべきガイドラインの項目を系統的に洗い出す独自の評価方式を開発した。
(中條)
-
- 人気の記事ランキング
-
- This scientist rewarmed and studied pieces of his friend’s cryopreserved brain 10年冷凍保存の脳は「驚くほど良好」——蘇生は「まったく別の話」
- Future AI chips could be built on glass AIチップの熱問題、解決策は「ガラス」 年内に商業生産へ
- What do new nuclear reactors mean for waste? 新型原子炉が続々登場、核廃棄物管理の「手引き」は書き直せるか
- The Pentagon is planning for AI companies to train on classified data, defense official says 【独自】米国防総省、軍事機密データでAIモデルの訓練を計画