KADOKAWA Technology Review
×
「宇宙ビジネスの時代」を先取りするテクノロジー・カンファレンス 
お得な「超早割」は10/15まで!
未来を創るための教育
メディアラボが子ども向け
AI倫理カリキュラムを公開
Courtesy of MIT Media Lab
Kids are surrounded by AI. They should know how it works.

未来を創るための教育
メディアラボが子ども向け
AI倫理カリキュラムを公開

現在の子どもたちは、人工知能(AI)に囲まれた世界で育っている。AIアルゴリズムがどのように作られるのかを子どもたちに教える新たなカリキュラムは、今後AIと付き合っていくうえで自身を守るだけでなく、テクノロジーの未来を創っていく意欲を与えてくれるかもしれない。 by Karen Hao2019.09.18

ある1人の生徒が映像の中で話している。「AIは赤ちゃんや人間の脳みたいなものなんだ。だってそれは学ぶ必要があるし」。生徒は続ける。「AIは、(中略)保存して、その情報を使って物事を把握するんだ」。

人工知能(AI)を友だちにざっくり説明するとしたら——? この複雑な問題をこれほど説得力のあるものにまとめようとすると、ほとんどの大人は四苦八苦してしまうだろう。だが、この映像に出てくる生徒はわずか10歳だ。

生徒はこの夏、MITメディアラボの試験的プログラムに参加した。AIについて教えるためのこのプログラムに参加したのは、9歳から14歳までの28名の中学生たち。プログラムのカリキュラムは、MITメディアラボの大学院生であるブレイクリー・ペイン研究助手が、AIの概念を中学校の教育に取り入れようとする広範な計画の一環として開発したものだ。

試験的プログラムの後、ペイン研究助手はカリキュラムをオープンソース化している。カリキュラムには、アルゴリズムがどのように開発され、そのプロセスが人々の生活にどのように影響を与えるのか? といったことを生徒が学ぶためのインタラクティブなアクティビティが含まれている。

現在の子どもたちは、AIに囲まれた世界で育っている。アルゴリズムがどの情報を見るかを決定し、見るべき動画を選択し、どのように会話すべきかを学ばせていく。望むらくは、アルゴリズムがどのように作られ、どのように社会に影響を及ぼすのかを子どもたちがよりよく理解することで、AIを賢く利用できるようになってほしい。そうなれば、子どもたちにテクノロジーの未来を創り出す意欲を持ってもらうことさえも可能かもしれない。

「子どもたちにテクノロジーがどのように働くのか理解してもらうことが大切です。テクノロジーをうまくコントロールして利用できるようになるためです。子どもたちに力を感じてほしいのです」とペイン研究助手は言う。

The students imagine how they would redesign YouTube.
受講生らが、自分だったらどのようにユーチューブを作り直すかを想像している
写真提供:MITメディアラボ

なぜ子どもたちなのか

子どもたちにAIについて学ばせる理由はいくつかある。まず、実利的な議論から見ていこう。研究の結果、子どもを技術的な概念に触れさせると、問題解決能力や批判的思考能力が刺激されることが明らかになっている。後になって、計算技能をずっと早く学べるように準備させることもできる。

次は、社会的な議論だ。中学生時代は特に、子どもたちの個性の形成と発達にとって大切な時期だ。この年頃の女の子にテクノロジーについて教えると、将来テクノロジーを研究したり、テクノロジーに関する仕事についたりする傾向が強くなる。こう説明するのは、カリフォルニア州立工科大学で心理学と子どもの発育学を研究するジェニファー・ジプソン教授だ。それにより、AI産業やテクノロジー産業全体の多様化が期待できる。また、早い時期にテクノロジーの倫理やその社会的影響について取り組んだ経験は、子どもたちがより意識の高いクリエイターや開発者、情報に通じた国民に成長するのを後押ししてくれるだろう。

そして最後に、脆弱さに関する議論がある。若者は柔軟性があり影響も受けやすい。そのため、他人の行動をまねして、そこから、中毒的行動に陥ってしまう倫理的危険性が高まる。こう語るのは、「学習者中心のデザイン(Learner Centered Design)」を専門とするユニバーシティ・カレッジ・ロンドンのローズ・ラッキン教授だ。子どもたちを受動的な消費者にしてしまっては、主体性やプライバシーに悪影響をおよぼし、長期的な成長も阻んでしまう可能性があるという。

「10歳から12歳というのは、子どもたちが初めて携帯電話を与えられたり、ソーシャルメディアのアカウントを持ったりする年齢です。その年頃の子どもたちに本当に理解して欲しいのは、そういったテクノロジーの中に必ずしも自分にあった意見や目的があるわけではないということです。テクノロジーにどっぷりはまり込んでしまう前にね」とペイン研究助手は話す。

The students designed ethical matrices to think through the stakeholders of a sandwich-making algorithm and their values.
受講生が設計した倫理的マトリクス。サンドイッチ作成アルゴリズムの利害関係者と彼らの価値観を考えるためのもの
写真提供:MITメディアラボ

意見としてのアルゴリズム

ペイン研究助手のカリキュラムには、生徒がアルゴリズムの主観性について考えるように促す一連のアクティビティがある。まずはアルゴリズムを、入力、一連の指示、出力などを備えたレシピとして学習することから始める。それから子どもたちは、最高のピーナッツバターとゼリーのサンドイッチを出力するアルゴリズムを「ビルド」する、つまり指示を書き出すよう求められる。

夏の試験的プログラムに参加した子どもたちは、プログラムに隠された教訓を即座に理解し始めた。「ある生徒は私を脇へと連れて行って、『これって意見だと思う? 事実だと思う?』と尋ねたんです」とペイン研究助手は言う。自分の力で発見する過程で、受講生たちは、意図せずに自分の好みをアルゴリズムに組み込んでいたことに気づいたのだ。

次の活動は、以下のようなコンセプトに基づいて作られている。ペイン研究助手が「倫理的マトリクス(Matrix)」と呼ぶものを受講生らが描いて、さまざまな利害関係者と彼らの価値観が、サンドイッチ・アルゴリズムの設計にどのように影響するかを考えるのだ。ペイン研究助手は試験的プログラムの各レッスンに、現在起こっている出来事を取り上げた。受講生はみんなで、ウォール・ストリート・ジャーナル紙の記事の要約版を読んだ。その記事はユーチューブの役員らが「おすすめ」アルゴリズムを変更して、子ども向けバージョンのアプリを別に作るべきかを検討しているという内容だ。受講生たちは、投資家の要求や、子を持つ親からの圧力、子どもの好みなどによって、企業がまったく違ったアルゴリズムを設計し直すことがあると学ぶことができた。

別のアクティビティでは、AIバイアスの概念について学ぶ。ここではグーグルの「ティーチャブル・マシン(Teachable Machine)」ツールを利用する。ティーチャブル・マシンは機械学習モデルを訓練するためのプログラミング不要のインタラクティブなプラットフォームで、これを使って猫と犬の分類機を作る。ただし、受講生には内緒で、偏ったデータセットを与えておく。受講生は、実験と議論を重ねるうち、データセットによって分類機が猫ばかりを正確に分類してしまうことに気づく。その後、受講生にその問題を修正する機会が与えられる。

ここでもペイン研究助手は、試験的プログラムにおけるこの練習を、現実の世界の例と関連づけた。MITメディアラボのジョイ・バオラムウィーニ研究員が、顔認識の偏りについて議会で証言する映像を受講生に見せたのだ。「現実世界において、どのような思考プロセスを経たかよって、システムの作られ方がどう変わってしまうのかを、子どもたちは理解してくれました」(ペイン研究助手)。

 

A student shows off her final YouTube redesign.
受講生の1人がユーチューブの完成した変更デザイン案を披露する
写真提供:MITメディアラボ

教育の未来

ペイン研究助手は、一般の意見を参考にしてプログラムを微調整していく計画だ。また、プログラムを広げるためのさまざまな手段を模索している。目標は、このプログラムを何らかの形で公教育に取り入れてもらうことだ。

さらにペイン研究助手は、このプログラムが、テクノロジーや社会、倫理などを子どもたちにどのように教えるかを示す1つの例になることも願っている。前出のラッキン教授やジプソン教授も、このプログラムが、ますますテクノロジー主導型になっていく世界の要求を満たすために、いかに教育が進化できるのかを示す有望なテンプレートを提供すると考えている。

「現在、私たちが世間で目にしているAIは、すべてを平等にする素晴らしいものではありません。教育は平等です。少なくともそうであって欲しいと望みます。ですから、これはもっと公平で公正な社会へと向かうために基礎となる第一歩なのです」(ペイン研究助手)。

人気の記事ランキング
  1. Future of Society Conference 2019 MITTR日本版カンファレンス、今年のテーマは「宇宙ビジネス」
  2. You can now listen to rumbling marsquakes heard by NASA’s Mars lander NASA、探査機インサイトが観測した火星の地震の「音」を公開
  3. The connection between video games and mass shootings isn’t just wrong—it’s racist 「ゲームが犯罪の元凶」は人種差別の隠れ蓑だった
カーレン・ハオ [Karen Hao]米国版 AI担当記者
MITテクノロジーレビューの人工知能(AI)担当記者。特に、AIの倫理と社会的影響、社会貢献活動への応用といった領域についてカバーしています。AIに関する最新のニュースと研究内容を厳選して紹介する米国版ニュースレター「アルゴリズム(Algorithm)」の執筆も担当。グーグルX(Google X)からスピンアウトしたスタートアップ企業でのアプリケーション・エンジニア、クオーツ(Quartz)での記者/データ・サイエンティストの経験を経て、MITテクノロジーレビューに入社しました。
人気の記事ランキング
  1. Future of Society Conference 2019 MITTR日本版カンファレンス、今年のテーマは「宇宙ビジネス」
  2. You can now listen to rumbling marsquakes heard by NASA’s Mars lander NASA、探査機インサイトが観測した火星の地震の「音」を公開
  3. The connection between video games and mass shootings isn’t just wrong—it’s racist 「ゲームが犯罪の元凶」は人種差別の隠れ蓑だった
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る