「データ信託」はプライバシーをどのようにして保護するのか
企業のデータ収集という複雑な世界を理解し、データ提供の可否を個人レベルで決定するのは難しい。ユーザーの持つデータやデータの権利を管理する「データ信託(データトラスト)」というアイデアがここ数年で急速に支持を集めている。 by Anouk Ruhaak2021.03.09
企業に自分のデータの提供を求められたら、そのまま素直に「はい」のボタンをクリックしていないだろうか? そうしているのはあなただけではない。何らかのサービスを利用するたびに、長々とした利用規約を読んだり、すべてのリスクを検討したりするなど到底無理な話だ。水を飲むたびに、その安全性を自分で評価しろというようなものだ。だから多くの人は、悪いことが起こらないように願いながら「はい」をクリックする。
だが、たとえしっかり検討したとしても、自分の預かり知らないところで「はい」をクリックした決断が他の人々に影響を与えることがある。23アンドミー(23andMe)のような遺伝子検査会社にDNAを提供すると、そのデータから自分の家族の遺伝的構造について多くの情報が明らかになってしまう。ソーシャルメディアで共有した情報によって、友人の保険料に影響を与える可能性もある。自分の収入証明書が、隣人のローン申請にまで影響するかもしれない。ある情報を共有するかどうかを、自分1人だけで決定してしまって良いのだろうか?
もし、この「はい」をクリックする同意モデルが、自分や周囲の人、その他の人たちに影響をおよぼすかどうかが分からないのであれば、他にどのような手段があるのだろうか。データ収集に関する規制は、政治家に任せるべきか? それも1つの手だろう。世界中の政府は、EUの一般データ保護規則(GDPR)のようなデータ保護制度を整え、データ収集前に利用者の同意を求めるよう企業に義務づけている。さらに進んで、最も有害なデータの使用を禁止することもできる。だが、データを収集したり使用したりする方法は山ほどある。広範な規制だけで十分だと考えるのは難しい。
労働組合が労働者の権利を擁護するように、個人のデータの権利を擁護する手段があるとしたらどうだろうか。 データに関して、我々の代わりに賢い決定を下してくれる医者のような存在はないものだろうか。それを実現する一つの案として、「データ信託(データトラスト)」という考え方がある。
データ信託は比較的新しい概念だが、急速に支持を得ている。2017年、英国政府は人工知能(AI)の訓練に大量のデータセットを使えるようにするために、データ信託という考え方を初めて提案した。202 …
- 人気の記事ランキング
-
- This scientist rewarmed and studied pieces of his friend’s cryopreserved brain 10年冷凍保存の脳は「驚くほど良好」——蘇生は「まったく別の話」
- Future AI chips could be built on glass AIチップの熱問題、解決策は「ガラス」 年内に商業生産へ
- What do new nuclear reactors mean for waste? 新型原子炉が続々登場、核廃棄物管理の「手引き」は書き直せるか
- The Pentagon is planning for AI companies to train on classified data, defense official says 【独自】米国防総省、軍事機密データでAIモデルの訓練を計画