KADOKAWA Technology Review
×
無料の会員登録で、記事閲覧数が増えます
Microsoft: AI Isn’t Yet Adaptable Enough to Help Businesses

人工知能の倫理巡り、マイクロソフトとグーグルが応酬

AIやロボットが普及することで、実際に人間がAIの判断に従う場面が出てきた。このとき、その判断は公平といえるのか、公平であることをどう保証するのか? 本格導入の前に、AI研究でしのぎを削り合うテック企業同士が、倫理面でもつばぜり合いだ。 by Tom Simonite2017.04.03

「大いなる力には大いなる責任が伴う」(スパイダーマンの台詞)というが、人工知能(AI)テクノロジーはますます強力になっている。機械学習やAIを開発し、精力的に事業を展開している企業は今、どんどん賢くなる製品ががもたらす倫理的な課題について、率直に語り始めている。

マイクロソフト・リサーチのエリック・ホロビツ社長は「人類はいま、AIの転換点にいるのです」とMIT Technology Reviewが先週開催したエムテク・デジタル 2017(EmTech Digital 2017)で語った。「倫理的規範でAIを管理し、時間をかけてAIを保護するのです」

ホロビツ社長は、似たような問題に思いを巡らすIBMやグーグルの研究者とともに登壇した。どの企業にも共通した懸念事項として話題に上ったのは、近年の進歩で、ソフトウェアが非常に直接的に人間を制御できる(たとえば、医療分野で起きている)ようになったことだ。

IBMのフランチェスカ・ロシ研究員は、お年寄りの補助をしたり、話し相手になったりする機械を例にした。「こういったロボットは、特定の文化やタスクに合わせた文化規範に従う必要があります。アメリカと日本で導入するとき、ロボットの行動はその国に合わせて大きく変えなければいけません」

介護ロボットの本格導入はまだまだ先の話かもしれないが、AIがもたらす倫理的な課題はすでに目に見えている。民間企業や政府が機械学習システムを利用して意思を決定すれば、その種のテクノロジーの盲点や不公平な判断が、特定の人を明確に差別することになる …

こちらは会員限定の記事です。
無料登録すると1カ月10本までご利用いただけます。
こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
ザ・デイリー重要なテクノロジーとイノベーションのニュースを平日毎日お届けします。
公式アカウント