あなたとあなたの好みを記憶する能力は、人工知能(AI)チャットボットやAIエージェントにとって急速に大きなセールスポイントになっている。2026年1月中旬、グーグルは、「パーソナル・インテリジェンス(Personal Intelligence)」を発表した。これは同社のGemini(ジェミニ)チャットボットとやり取りする新しい方法で、ユーザーのGメール(Gmail)、写真、検索、ユーチューブ(YouTube)の履歴を活用してGeminiを「より個人的で、積極的で、強力な」ものにする。これは、オープンAI(OpenAI)、アンソロピック(Anthropic)、メタ(Meta)による同様の動きを反映している。これらの企業は、AI製品が人々の個人的な詳細や好みを記憶し、それを活用する新しい方法を追加している。これらの機能には潜在的な利点があるが、複雑なAI技術に新たなリスクをもたらす可能性がある。私たちは、こうしたリスクに対してより多くの準備をする必要がある。パーソナライズされたインタラクティブなAIシステムは、私たちの代理として行動し、会話全体でコンテキストを維持し、旅行予約から税務申告まで、あらゆる種類のタスクを実行する能力を向上させるように構築されている。開発者のコーディング・スタイルを学習するツールから、数千の製品を選別するショッピング・エージェントまで、これらのシステムはユーザーについてますます親密な詳細を保存し、取得する能力に基づいている。しかし、時間が経つにつれて、憂慮すべき、そしてあまりにも馴染み深いプライバシーの脆弱性をもたらす。その多くは「ビッグデータ」が最初にユーザーのパターンを発見し、それに基づいて行動する力をほのめかして以来、立ちはだかってきたものである。さらに悪いことに、AIエージェントは今、これらの脆弱性を回避するために採用されていた保護措置を突破する準備ができているように見える。私たちは現在、これらのシステムと会話インターフェースを通じてやり取りし、頻繁にコンテキストを切り替える。あなたは単一のAIエージェントに上司へのメール下書き、医学的アドバイスの提供、休暇ギフトの予算計画、そして対人関係の衝突への意見を求めるかもしれない。ほとんどのAIエージェントは、かつてはコンテキストや目的、許可によって分離されていたかもしれないあなたに関するすべてのデータを、単一の非構造化リポジトリに集約する。AIエージェントがタスクを実行するために外部アプリや他のエージェントにリンクすると、そのメモリー内のデータは共有プールに漏れ出す可能性がある。この技術的な現実は、孤立したデータポイントだけでなく、人々の生活の全体像を暴露する前例のないプライバシー侵害の可能性を生み出す。情報がすべて同じリポジトリにある場合、非常に望ましくない方法でコンテキストを越境しやすくなる。食料品リストを作成するための食事の好みに関するカジュアルなチャットが、後に提供される健康保険オプションに影響を与える可能性があり、アクセシブルな入り口を提供するレストランの検索が給与交渉に漏れる可能性があ …