KADOKAWA Technology Review
×

知性を宿す機械

ロボットや人工知能、機械学習、さらに自律型の乗り物やドローン、量子コンピューティングについて。

  1. AI is learning how to create itself
    人間は、人類よりも賢い機械を作り出すことはできるのだろうか。あるAI研究者は、AIを使ってAIを作ることが、汎用人工知能(AGI)への重要なステップになると考えている。
  2. 写真の女性をワンクリックでポルノ女優に、「一線越えた」AIアプリ
    顔写真をブラウザーからアップロードするだけでポルノビデオを生成するWebアプリが登場した。ディープフェイク技術を使ったこのサイトはすでに利用できなくなっているが、研究者やフェイクポルノの元被害者からは「一線を越えた」との声が上がっている。
  3. あるものが意識を持つとはどういう状態なのだろうか。人間や動物だけでなく、木や植物、バクテリアも意識を持つのだろうか。統合情報理論(IIT)によると、あるシステムが意識を持っているかどうかを定量的に予測できるという。
  4. 講師・受付に「顔」貸出、デジタル版コピーロボビジネスが拡大中
    実在の人物の映像を使ってディープフェイクで作成したAIキャラクターを、ライセンス供与するビジネスが広がりつつある。いったん映像を撮影すれば、何千本もの映像に出演し、あらゆる言語で何でも話すことができるため、俳優の仕事にも影響を与えそうだ。
  5. 米政府機関で「顔認識」利用拡大、規制化の声に逆行
    最新の調査結果によると、米国の政府機関や地方自治体などが顔認識テクノロジーを利用しており、今後利用範囲を拡大していく見込みだ。一方で、顔認識システムは人種間での誤認識などの問題を抱えており、規制を求める動きがある。

知性を宿す機械の記事一覧

  1. Deleting unethical data sets isn’t good enough
    「非倫理的」なAI訓練データセット、削除するだけでは不十分
    人工知能(AI)の訓練用にはかつて、ネット上のデータを許可なく集められたものが使われた。後に批判され、データセットを撤回する例が相次いだがが、撤回するだけでは問題の解決にはならない。
  2. We tested AI interview tools. Here’s what we found.
    ドイツ語で答えても適正あり?AI面接で英語力を測ってみたら……
    欧米では企業の採用活動に人工知能(AI)ツールが使われる機会が増えた。実際に複数のツールを試してみると、さまざまな懸念点が明らかになった。
  3. Chameleon-inspired robot skin changes colors instantly
    まるでカメレオン、一瞬で背景に溶け込む人工カモフラージュ・ロボ
    カメレオンの皮膚のように自由自在に変色するロボットを韓国の研究者が開発した。生物にヒントを得たロボットには新たな可能性がある。
  4. A new generation of AI-powered robots is taking over warehouses
    パンデミックで需要急増、AI搭載の新倉庫ロボの導入が加速
    パンデミックで電子商取引の需要が急増したのを背景に、AIが搭載された新世代のロボットが倉庫業務を席巻しつつある。倉庫内で物を移動するだけでなく、棚や箱から物を取り出して梱包したり、袋詰めしたりできるロボットだ。
  5. Inside the fight to reclaim AI from Big Tech's control
    AI界は変われるか?
    グーグルを解雇された
    研究者らの戦い
    AIに大きな収益性があることに気づいた巨大テック企業は、豊富な資金力を背景にAI研究を支配し、社会的問題を解決するどころか悪化させてきた。しかし、こうした偏向を摘発し、人間に役立つAIを構築しようとする研究者たちにより、流れは少しずつ変わってきている。
  6. Hundreds of AI tools have been built to catch covid. None of them helped.
    今回のパンデミックでは、現場の医師を支援することを目指したAIツールが数多く作られた。しかし、役に立つツールがどれ一つとしてなかっただけでなく、中には誤診やリスクの過小評価によって有害になり得るツールすらあった。
  7. An endlessly changing playground teaches AIs how to multitask
    ディープマインドは、バーチャル3D空間でさまざまな課題を際限なく課すことによって、AIが初見のタスクにも短時間で適応できるようにする手法を開発した。
  8. DeepMind says it will release the structure of every protein known to science
    ディープマインド、人体のほぼ全てのタンパク質の構造をAIで予測
    ディープマインドは、タンパク質の構造を予測するAIツール「アルファフォールド」を用いて、人体に存在するほぼすべてのタンパク質の形状を予測し、35万個のタンパク質構造を格納したデータベースを公開した。
  9. Disability rights advocates are worried about discrimination in AI hiring tools
    AI採用ツールの導入加速で、意図せぬ障害者排除の懸念
    AI技術を利用した採用ツールを使う企業が増えている。企業がAI採用ツールを使うことは、障害を持つ求職者に不利に働く恐れがあるが、雇用差別対策を担当する米国連邦機関は当面、積極的に動くつもりはなさそうだ。
  10. Meet the AI algorithms that judge how beautiful you are
    人工知能(AI)技術を利用して顔の美しさを評価し、改善をアドバイスするサービスがここ数年で登場している。その結果は知らず知らずのうちに、人々の行動や目にする投稿、考え方に影響を与えている。
  11. GPT-3 and related AI technologies, paradigms and limitations
    GPT-3とそれを取り巻く周辺、パラダイムと限界
    MITテクノロジーレビューの2021年版ブレークスルー・テクノロジー10に選出された「GPT-3」を、日本をリードするAIベンチャー「ギリア」の清水 亮CEOが実際に試用してみた。シリコンバレーを熱狂させた注目のAI技術は、彼の目にどのように映ったのか。
  12. LinkedIn’s job-matching AI was biased. The company’s solution? More AI.
    企業の採用活動にますます利用されるAIは公正なのか?
    リンクトインをはじめとする大手の求人検索サイトの多くは、ユーザーと求人情報のマッチングにAIを利用している。しかし、そのアルゴリズムが常に公正に機能しているとは限らない。
  13. Bias isn’t the only problem with credit scores—and no, AI can’t help
    信用スコアに潜む「バイアス」以外の問題 大規模研究で判明した根深さ
    ローン貸し出し承認の可否判断に使われる予測ツールで、マイノリティに対して正確さが落ちるのは、バイアスだけが原因ではない。正確な信用履歴データが足りないからだ。ただ、その問題の解決は簡単ではない。
  14. These creepy fake humans herald a new age in AI
    AIのための「フェイク人間」が大量生産される時代がやってきた
    機械学習システムの訓練用にデータを大量に入手することは、プライバシー保護の観点から困難になっているうえ、現実のデータには偏りが存在する可能性がある。そこで、AIシステム訓練用のフェイクデータセットを現実のデータに基づいて作成し、AIシステムベンダーに提供する企業が現れている。
  15. How wearable AI could help you recover from covid
    自宅療養中の異変を検出、
    ジェットエンジン監視AIが
    新型コロナ患者を見守り
    ボディセンサーを使用したウェアラブルAIを用いて、自宅療養中の新型コロナウイルス感染症患者を遠隔監視する試みが米国で増加している。患者の容体が急変する兆候をAIで検出して臨床医にアラートを出すことで、手遅れになるのを防ぐのが狙いだ。
  16. AI still sucks at moderating hate speech
    AIはまだ、ヘイトスピーチを見分けるのが苦手=米最新研究
    人工知能による自然言語処理テクノロジーは発展を続けている。だが、AIにヘイトスピーチを検出させる新たな研究結果からは、多くの課題が浮き彫りになった。
  17. The race to understand the exhilarating, dangerous world of language AI
    人間の会話を模倣する優れた能力で注目を集めている大規模言語モデル(LLM)には大きな課題があるが、商業主義の巨大テック企業はそれに向き合おうとしていない、そこで、同モデルの課題を検証するための世界規模のオープンソース・プロジェクトがこの4月に始動した。
  18. We need to design distrust into AI systems to make them safer
    私たちが自動化されたシステムを過度に信頼しすぎると、危険な状況に陥る場合がある。コンピューター科学に重要な貢献をした女性研究者を称えるACMの賞を受賞したアヤナ・ハワード博士が語った。
  19. Language models like GPT-3 could herald a new type of search engine
    グーグル「次世代検索エンジン」案、研究チームが考案
    グーグルの研究チームが、検索エンジンの根本的な改修案を発表した。20年以上にわたって使われてきた『索引付け・回収・順位決定』という仕組みの代わりに、インターネット上の膨大な文書で訓練した大規模言語モデルを使って、ユーザーの問い合わせに自然な言葉で回答するようにしようというものだ。
  20. AI consumes a lot of energy. Hackers could make it consume more.
    最新AI技術にDoS攻撃のリスク、大量の電力消費の可能性
    メリーランド・サイバーセキュリティー・センターの研究チームは、最新世代のニューラル・ネットワークへの入力データに少量のノイズを加えることで、必要以上の計算資源を占有させ、AIの「思考」を妨害する攻撃の可能性について発表した。
  21. How to stop AI from recognizing your face in selfies
    AI顔認識ツールからあなたの「自撮り」写真を守る方法
    顔認識システムは人々がWebに投稿する写真を大量に収集して、AIモデルの訓練に使用している。個人的な写真が使用されるのを好ましく思わない研究者らは、人間の目にはわからないわずかな変更を画像に加えて、顔認識システムの訓練を阻止するツールを開発している。
  22. Geoffrey Hinton has a hunch about what's next for AI
    人工知能(AI)の分野にブレークスルーをもたらした「深層学習」のパイオニアであるジェフリー・ヒントンが、深層学習の課題を克服することを狙った、新たな手法である「GLOM」を発表した。現在の段階では仮説にすぎないが、グーグルの研究施設で初期調査が始められている。
  23. Stop talking about AI ethics. It’s time to talk about power.
    人工知能について、
    倫理の次に語られるべきこと
    ——AIナウ創立者に聞く
    人々はこれまで人工知能(AI)について、あまりに狭く、エンジニアリング的・抽象的な観点から捉えてきた。現実世界に及ぼす影響を考えると、AIは決して中立ではなく、人工的でも知的でもないと、AIナウ研究所の共同創立者であるケイト・クロフォード博士は話す。
  24. Why GPT-3 is the best and worst of AI right now
    GPT-3が「最高」で「最悪」なAIである理由
    オープンAIが開発した大規模言語モデル「GPT-3」が作成する文章は、不気味なほどのリアリティで人間の書く文章を模倣できる。だが、こうした成果は主に、ニューラル・ネットワークの規模と訓練に使うデータをとてつもなく大規模化したおかげであり、現在のAIが抱える無視できない問題点も明らかにしている。
  25. This has just become a big week for AI regulation
    ついに欧米で動き出した「AI規制」、相次ぐ発表で潮目は変わるか
    人工知能(AI)技術はこれまで、ほとんど規制されることなく、開発・展開されてきた。だが、風向きは変わりつつある。今週、欧州連合(EU)が新たなAI規則を明らかにしたほか、米国連邦取引委員会(FTC)が偏ったアルゴリズムを使用したり、販売したりしている企業に対して措置を講じる方針を発表したからだ。
  26. The NYPD used a controversial facial recognition tool. Here’s what you need to know.
    私物スマホで利用も NY市警と顔認識企業の深い関係明らかに
    Web上で無許可で集めた顔写真を用いた顔認識システムを提供していることで物議を醸しているAI企業と、ニューヨーク市警が、極めて友好的な関係を築いていたことを示す電子メールが公開された。同市警は、試用期間が終わった後も同システムを使い続け、現場の捜査で利用しており、個人所有のデバイスからアクセスしている警察官もいた。
  27. Forget Boston Dynamics. This robot taught itself to walk
    二足歩行ロボをゼロから訓練、強化学習で=UCバークレー
    カリフォルニア大学バークレー校の研究チームは、強化学習の手法を使って、ロボットに二足歩行をゼロから習得させようとしている。人間サイズのロボットに歩行を自己学習させることで、さまざまな地形に対応する能力や、転んだり損傷を負ったりした際に回復する能力を獲得させられるかもしれない。
  28. “We'll never have true AI without first understanding the brain”
    「パームの父」として知られる神経科学者でテック起業家のジェフ・ホーキンスは、現在の人工知能(AI)に疑問を持っている。40年近くにわたって神経科学とAIの2つの世界を行き来してきたホーキンスは、知能の仕組みを解明したといい、世界中のAI研究者に議論を呼びかけている。
  29. Andrew Ng: Forget about building an AI-first business. Start with a mission.
    ビッグから「グッド」へ発想転換を、第一人者が語るAI導入のコツ
    企業はどうすれば機械学習を利用して業務を変革し、重要な問題を解決できるようになるか。AI界のパイオニアであり、新たなベンチャー会社を率いるアンドリュー・エンが語った。
  30. Error-riddled datasets are warping our sense of how good AI really is
    AIモデル評価用データセットに多数の誤り、実は優秀ではなかった?
    MITの研究者が、人工知能(AI)の機械学習モデルの評価に使われている有名なデータセットの中に、誤ってラベル付けされたデータが多数含まれていることを発見した。最も優れていると見なされていたAIモデルが、実はそうではなかったという事態が発生するかもしれない。
  31. How to poison the data that Big Tech uses to surveil you
    今日、人々がデジタル・プラットフォーム上で実行していることはすべてデータとして収集・分析され、テック企業が収益を得るために利用されている。私たちは個人では無力だが、集団で行動を起こすことで、この力関係を是正できるかもしれない。
  32. An AI is training counselors to deal with teens in crisis
    AIボットが演じる16歳で「心を開く」訓練、カウンセラー教育に
    LGBTQの若者らに向けたホットライン「トレバー・プロジェクト」は、ボランティアのカウンセラーの教育に、ノースカロライナ州出身の16歳の「ライリー」という架空の人格を備えたAIチャットボットを使用している。ただし、教育の効率を上げることだけが目標ではない。
  33. AI armed with multiple senses could gain more flexible intelligence
    2021重大技術:「マルチモーダル」でAIはもっと柔軟かつ堅牢になる
    人間の知能はさまざまな知覚と言語能力の組み合わせから生まれる。こうしたマルチモーダルな手法を用いれば、新しい状況や問題により容易に対処できる堅牢なAIを作り出せる可能性がある。
  34. What is an “algorithm”? It depends whom you ask
    主張:「アルゴリズム」を責任逃れの隠れ蓑にしてはならない
    アルゴリズムに基づく意思決定が重要な場面で使われる機会が増えるにつれて、その社会的影響が問題視されるようになってきた。「アルゴリズム」と聞くと一般的に、客観的なデータに基づいて、人間には振る舞いを予測できないほど複雑な処理を実行していると思われがちであるが、実際にそうとは限らない。
  35. Auditors are testing hiring algorithms for bias, but find there's no easy fix
    AIアルゴリズムを用いて人材採用を効率化ツールが米国企業で普及してきた。ツールベンダーの中には「バイアス批判」に応え、アルゴリズムに対する監査を依頼している企業もあるが、監査人はある種のバイアスを見逃す可能性があるうえ、そのツールが職務に最適な候補者を選ぶことを保証するわけでもない。
  36. Fractals can help AI learn to see more clearly—or at least fairly
    フラクタルでAIを訓練、産総研などがデータセットに代わる新提案
    産業技術総合研究所の片岡博士らの研究チームは、フラクタル図を使ってニューラルネットを訓練することで、現実の写真の大規模データセットを用いる場合と同様な結果を得られることを示した。手作業で訓練データを作成する労力と時間が省けるだけでなく、偏りを含まないデータセットを作るのに役立つ可能性がある。
  37. AI could make healthcare fairer—by helping us believe what patients tell us
    逆転の発想、診断法の欠陥を機械学習で実証した新研究
    機械学習は既存の不平等を永続させる傾向があると指摘されているが、カリフォルニア大学バークレー校の研究者たちは「逆転の発想」により、機械学習により既存の医学的知識の欠陥が明らかになる場合があることを示した。
  38. An AI saw a cropped photo of AOC. It autocompleted her wearing a bikini.
    人工知能(AI)のバイアスに対する批判の多くはラベル付けへの批判だった。だが、画像生成アルゴリズムにはインターネットに存在する性差別・人種差別的な視点が反映されている。
  39. These virtual robot arms get smarter by training each other
    オープンAI、互いに訓練することで賢くなるバーチャルロボを開発
    オープンAIは、一方のAIを使って他方のAIを訓練することより、多様なタスクに対応できるようAIを学習させる手法を開発した。オープンAIが目標とする、人間が改めて訓練しなくても様々なタスクをこなせる汎用的なAIを構築する際に重要な要素となる可能性がある。
  40. The Biden administration’s AI plans: what we might expect
    米国のバイデン新大統領は、AIとどのように向き合うのか確かなことは何も発表していない。だが、大統領が指名した重要ポストの顔ぶれから、ある程度は予想できる。
  41. Worried about your firm’s AI ethics? These startups are here to help.
    「AI倫理」をビジネスに変えるスタートアップが続々、監査を支援
    AI倫理への関心の高まりを受けて、AIモデルの監査を支援するスタートアップ企業が続々立ち上がっている。モデルのバイアスを検査したり、リスクを洗い出したりして「責任あるAI」の実現を支援する。
  42. Jumbled up sentences show that AIs still don't really understand language
    AIはまだ文の意味を理解していない——NLPの欠陥が突きつける課題
    米オーバーン大学の研究者らは、言語理解能力を測定するテストで高得点の自然言語システムが、文中の単語の順序の入れ替えに気づかないことを発見した。こうしたシステムは、文中のいくつかのキーワードを拾い上げてテストの課題を処理しているだけであり、人間のように文の意味を理解しているわけではない。
  43. DeepMind’s protein-folding AI has solved a 50-year-old grand challenge of biology
    ディープマインドが開発した新たなアルゴリズムは、タンパク質の構造を原子サイズで正確に予測できる。この画期的な進歩は生物学における50年越しの難問を解決し、新薬の開発や疾病の解明に取り組む科学者らにとっても大きな進展をもたらすだろう。
  44. Five ways to make AI a greater force for good in 2021
    2021年、「よりよいAI」を目指すための5つの提言
    予想外のパンデミックが世界を襲った2020年は、人工知能(AI)が社会に与えるさまざまな悪影響が明らかになった。一方で、好ましい動きもある。2021年に期待する5つの動きを紹介しよう。
  45. What Buddhism can do for AI ethics
    主張:今こそAI倫理に仏教の思想を取り入れよう
    社会におけるAIの影響力が強まるにつれて、AIを開発・運用する際の倫理的なガイドラインを策定する必要性が高まっている。これまでにいくつかのAI倫理ガイドラインが発表されているが、そのほとんどは、西欧の価値基準に基づいたものだ。
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る