KADOKAWA Technology Review
×
ひと月あたり「1000円」お得な夏の購読キャンペーン実施中!

知性を宿す機械

ロボットや人工知能、機械学習、さらに自律型の乗り物やドローン、量子コンピューティングについて。

  1. DeepMind says it will release the structure of every protein known to science
    ディープマインド、人体のほぼ全てのタンパク質の構造をAIで予測
    ディープマインドは、タンパク質の構造を予測するAIツール「アルファフォールド」を用いて、人体に存在するほぼすべてのタンパク質の形状を予測し、35万個のタンパク質構造を格納したデータベースを公開した。
  2. AI採用ツールの導入加速で、意図せぬ障害者排除の懸念
    AI技術を利用した採用ツールを使う企業が増えている。企業がAI採用ツールを使うことは、障害を持つ求職者に不利に働く恐れがあるが、雇用差別対策を担当する米国連邦機関は当面、積極的に動くつもりはなさそうだ。
  3. 人工知能(AI)技術を利用して顔の美しさを評価し、改善をアドバイスするサービスがここ数年で登場している。その結果は知らず知らずのうちに、人々の行動や目にする投稿、考え方に影響を与えている。
  4. GPT-3とそれを取り巻く周辺、パラダイムと限界
    MITテクノロジーレビューの2021年版ブレークスルー・テクノロジー10に選出された「GPT-3」を、日本をリードするAIベンチャー「ギリア」の清水 亮CEOが実際に試用してみた。シリコンバレーを熱狂させた注目のAI技術は、彼の目にどのように映ったのか。
  5. 企業の採用活動にますます利用されるAIは公正なのか?
    リンクトインをはじめとする大手の求人検索サイトの多くは、ユーザーと求人情報のマッチングにAIを利用している。しかし、そのアルゴリズムが常に公正に機能しているとは限らない。

知性を宿す機械の記事一覧

  1. Bias isn’t the only problem with credit scores—and no, AI can’t help
    信用スコアに潜む「バイアス」以外の問題 大規模研究で判明した根深さ
    ローン貸し出し承認の可否判断に使われる予測ツールで、マイノリティに対して正確さが落ちるのは、バイアスだけが原因ではない。正確な信用履歴データが足りないからだ。ただ、その問題の解決は簡単ではない。
  2. These creepy fake humans herald a new age in AI
    AIのための「フェイク人間」が大量生産される時代がやってきた
    機械学習システムの訓練用にデータを大量に入手することは、プライバシー保護の観点から困難になっているうえ、現実のデータには偏りが存在する可能性がある。そこで、AIシステム訓練用のフェイクデータセットを現実のデータに基づいて作成し、AIシステムベンダーに提供する企業が現れている。
  3. How wearable AI could help you recover from covid
    自宅療養中の異変を検出、
    ジェットエンジン監視AIが
    新型コロナ患者を見守り
    ボディセンサーを使用したウェアラブルAIを用いて、自宅療養中の新型コロナウイルス感染症患者を遠隔監視する試みが米国で増加している。患者の容体が急変する兆候をAIで検出して臨床医にアラートを出すことで、手遅れになるのを防ぐのが狙いだ。
  4. AI still sucks at moderating hate speech
    AIはまだ、ヘイトスピーチを見分けるのが苦手=米最新研究
    人工知能による自然言語処理テクノロジーは発展を続けている。だが、AIにヘイトスピーチを検出させる新たな研究結果からは、多くの課題が浮き彫りになった。
  5. The race to understand the exhilarating, dangerous world of language AI
    人間の会話を模倣する優れた能力で注目を集めている大規模言語モデル(LLM)には大きな課題があるが、商業主義の巨大テック企業はそれに向き合おうとしていない、そこで、同モデルの課題を検証するための世界規模のオープンソース・プロジェクトがこの4月に始動した。
  6. We need to design distrust into AI systems to make them safer
    私たちが自動化されたシステムを過度に信頼しすぎると、危険な状況に陥る場合がある。コンピューター科学に重要な貢献をした女性研究者を称えるACMの賞を受賞したアヤナ・ハワード博士が語った。
  7. Language models like GPT-3 could herald a new type of search engine
    グーグル「次世代検索エンジン」案、研究チームが考案
    グーグルの研究チームが、検索エンジンの根本的な改修案を発表した。20年以上にわたって使われてきた『索引付け・回収・順位決定』という仕組みの代わりに、インターネット上の膨大な文書で訓練した大規模言語モデルを使って、ユーザーの問い合わせに自然な言葉で回答するようにしようというものだ。
  8. AI consumes a lot of energy. Hackers could make it consume more.
    最新AI技術にDoS攻撃のリスク、大量の電力消費の可能性
    メリーランド・サイバーセキュリティー・センターの研究チームは、最新世代のニューラル・ネットワークへの入力データに少量のノイズを加えることで、必要以上の計算資源を占有させ、AIの「思考」を妨害する攻撃の可能性について発表した。
  9. How to stop AI from recognizing your face in selfies
    AI顔認識ツールからあなたの「自撮り」写真を守る方法
    顔認識システムは人々がWebに投稿する写真を大量に収集して、AIモデルの訓練に使用している。個人的な写真が使用されるのを好ましく思わない研究者らは、人間の目にはわからないわずかな変更を画像に加えて、顔認識システムの訓練を阻止するツールを開発している。
  10. Geoffrey Hinton has a hunch about what's next for AI
    人工知能(AI)の分野にブレークスルーをもたらした「深層学習」のパイオニアであるジェフリー・ヒントンが、深層学習の課題を克服することを狙った、新たな手法である「GLOM」を発表した。現在の段階では仮説にすぎないが、グーグルの研究施設で初期調査が始められている。
  11. Stop talking about AI ethics. It’s time to talk about power.
    人工知能について、
    倫理の次に語られるべきこと
    ——AIナウ創立者に聞く
    人々はこれまで人工知能(AI)について、あまりに狭く、エンジニアリング的・抽象的な観点から捉えてきた。現実世界に及ぼす影響を考えると、AIは決して中立ではなく、人工的でも知的でもないと、AIナウ研究所の共同創立者であるケイト・クロフォード博士は話す。
  12. Why GPT-3 is the best and worst of AI right now
    GPT-3が「最高」で「最悪」なAIである理由
    オープンAIが開発した大規模言語モデル「GPT-3」が作成する文章は、不気味なほどのリアリティで人間の書く文章を模倣できる。だが、こうした成果は主に、ニューラル・ネットワークの規模と訓練に使うデータをとてつもなく大規模化したおかげであり、現在のAIが抱える無視できない問題点も明らかにしている。
  13. This has just become a big week for AI regulation
    ついに欧米で動き出した「AI規制」、相次ぐ発表で潮目は変わるか
    人工知能(AI)技術はこれまで、ほとんど規制されることなく、開発・展開されてきた。だが、風向きは変わりつつある。今週、欧州連合(EU)が新たなAI規則を明らかにしたほか、米国連邦取引委員会(FTC)が偏ったアルゴリズムを使用したり、販売したりしている企業に対して措置を講じる方針を発表したからだ。
  14. The NYPD used a controversial facial recognition tool. Here’s what you need to know.
    私物スマホで利用も NY市警と顔認識企業の深い関係明らかに
    Web上で無許可で集めた顔写真を用いた顔認識システムを提供していることで物議を醸しているAI企業と、ニューヨーク市警が、極めて友好的な関係を築いていたことを示す電子メールが公開された。同市警は、試用期間が終わった後も同システムを使い続け、現場の捜査で利用しており、個人所有のデバイスからアクセスしている警察官もいた。
  15. Forget Boston Dynamics. This robot taught itself to walk
    二足歩行ロボをゼロから訓練、強化学習で=UCバークレー
    カリフォルニア大学バークレー校の研究チームは、強化学習の手法を使って、ロボットに二足歩行をゼロから習得させようとしている。人間サイズのロボットに歩行を自己学習させることで、さまざまな地形に対応する能力や、転んだり損傷を負ったりした際に回復する能力を獲得させられるかもしれない。
  16. “We'll never have true AI without first understanding the brain”
    「パームの父」として知られる神経科学者でテック起業家のジェフ・ホーキンスは、現在の人工知能(AI)に疑問を持っている。40年近くにわたって神経科学とAIの2つの世界を行き来してきたホーキンスは、知能の仕組みを解明したといい、世界中のAI研究者に議論を呼びかけている。
  17. Andrew Ng: Forget about building an AI-first business. Start with a mission.
    ビッグから「グッド」へ発想転換を、第一人者が語るAI導入のコツ
    企業はどうすれば機械学習を利用して業務を変革し、重要な問題を解決できるようになるか。AI界のパイオニアであり、新たなベンチャー会社を率いるアンドリュー・エンが語った。
  18. Error-riddled datasets are warping our sense of how good AI really is
    AIモデル評価用データセットに多数の誤り、実は優秀ではなかった?
    MITの研究者が、人工知能(AI)の機械学習モデルの評価に使われている有名なデータセットの中に、誤ってラベル付けされたデータが多数含まれていることを発見した。最も優れていると見なされていたAIモデルが、実はそうではなかったという事態が発生するかもしれない。
  19. How to poison the data that Big Tech uses to surveil you
    今日、人々がデジタル・プラットフォーム上で実行していることはすべてデータとして収集・分析され、テック企業が収益を得るために利用されている。私たちは個人では無力だが、集団で行動を起こすことで、この力関係を是正できるかもしれない。
  20. An AI is training counselors to deal with teens in crisis
    AIボットが演じる16歳で「心を開く」訓練、カウンセラー教育に
    LGBTQの若者らに向けたホットライン「トレバー・プロジェクト」は、ボランティアのカウンセラーの教育に、ノースカロライナ州出身の16歳の「ライリー」という架空の人格を備えたAIチャットボットを使用している。ただし、教育の効率を上げることだけが目標ではない。
  21. AI armed with multiple senses could gain more flexible intelligence
    2021重大技術:「マルチモーダル」でAIはもっと柔軟かつ堅牢になる
    人間の知能はさまざまな知覚と言語能力の組み合わせから生まれる。こうしたマルチモーダルな手法を用いれば、新しい状況や問題により容易に対処できる堅牢なAIを作り出せる可能性がある。
  22. What is an “algorithm”? It depends whom you ask
    主張:「アルゴリズム」を責任逃れの隠れ蓑にしてはならない
    アルゴリズムに基づく意思決定が重要な場面で使われる機会が増えるにつれて、その社会的影響が問題視されるようになってきた。「アルゴリズム」と聞くと一般的に、客観的なデータに基づいて、人間には振る舞いを予測できないほど複雑な処理を実行していると思われがちであるが、実際にそうとは限らない。
  23. Auditors are testing hiring algorithms for bias, but find there's no easy fix
    AIアルゴリズムを用いて人材採用を効率化ツールが米国企業で普及してきた。ツールベンダーの中には「バイアス批判」に応え、アルゴリズムに対する監査を依頼している企業もあるが、監査人はある種のバイアスを見逃す可能性があるうえ、そのツールが職務に最適な候補者を選ぶことを保証するわけでもない。
  24. Fractals can help AI learn to see more clearly—or at least fairly
    フラクタルでAIを訓練、産総研などがデータセットに代わる新提案
    産業技術総合研究所の片岡博士らの研究チームは、フラクタル図を使ってニューラルネットを訓練することで、現実の写真の大規模データセットを用いる場合と同様な結果を得られることを示した。手作業で訓練データを作成する労力と時間が省けるだけでなく、偏りを含まないデータセットを作るのに役立つ可能性がある。
  25. AI could make healthcare fairer—by helping us believe what patients tell us
    逆転の発想、診断法の欠陥を機械学習で実証した新研究
    機械学習は既存の不平等を永続させる傾向があると指摘されているが、カリフォルニア大学バークレー校の研究者たちは「逆転の発想」により、機械学習により既存の医学的知識の欠陥が明らかになる場合があることを示した。
  26. An AI saw a cropped photo of AOC. It autocompleted her wearing a bikini.
    人工知能(AI)のバイアスに対する批判の多くはラベル付けへの批判だった。だが、画像生成アルゴリズムにはインターネットに存在する性差別・人種差別的な視点が反映されている。
  27. These virtual robot arms get smarter by training each other
    オープンAI、互いに訓練することで賢くなるバーチャルロボを開発
    オープンAIは、一方のAIを使って他方のAIを訓練することより、多様なタスクに対応できるようAIを学習させる手法を開発した。オープンAIが目標とする、人間が改めて訓練しなくても様々なタスクをこなせる汎用的なAIを構築する際に重要な要素となる可能性がある。
  28. The Biden administration’s AI plans: what we might expect
    米国のバイデン新大統領は、AIとどのように向き合うのか確かなことは何も発表していない。だが、大統領が指名した重要ポストの顔ぶれから、ある程度は予想できる。
  29. Worried about your firm’s AI ethics? These startups are here to help.
    「AI倫理」をビジネスに変えるスタートアップが続々、監査を支援
    AI倫理への関心の高まりを受けて、AIモデルの監査を支援するスタートアップ企業が続々立ち上がっている。モデルのバイアスを検査したり、リスクを洗い出したりして「責任あるAI」の実現を支援する。
  30. Jumbled up sentences show that AIs still don't really understand language
    AIはまだ文の意味を理解していない——NLPの欠陥が突きつける課題
    米オーバーン大学の研究者らは、言語理解能力を測定するテストで高得点の自然言語システムが、文中の単語の順序の入れ替えに気づかないことを発見した。こうしたシステムは、文中のいくつかのキーワードを拾い上げてテストの課題を処理しているだけであり、人間のように文の意味を理解しているわけではない。
  31. DeepMind’s protein-folding AI has solved a 50-year-old grand challenge of biology
    ディープマインドが開発した新たなアルゴリズムは、タンパク質の構造を原子サイズで正確に予測できる。この画期的な進歩は生物学における50年越しの難問を解決し、新薬の開発や疾病の解明に取り組む科学者らにとっても大きな進展をもたらすだろう。
  32. Five ways to make AI a greater force for good in 2021
    2021年、「よりよいAI」を目指すための5つの提言
    予想外のパンデミックが世界を襲った2020年は、人工知能(AI)が社会に与えるさまざまな悪影響が明らかになった。一方で、好ましい動きもある。2021年に期待する5つの動きを紹介しよう。
  33. What Buddhism can do for AI ethics
    主張:今こそAI倫理に仏教の思想を取り入れよう
    社会におけるAIの影響力が強まるにつれて、AIを開発・運用する際の倫理的なガイドラインを策定する必要性が高まっている。これまでにいくつかのAI倫理ガイドラインが発表されているが、そのほとんどは、西欧の価値基準に基づいたものだ。
  34. The year deepfakes went mainstream
    ディープフェイクに新潮流、2021年に流行しそうな事例6つ
    人工知能(AI)が作成するよるねつ造映像「ディープフェイク」は当初、ポルノ映像における顔のすり替えが主要な用途と言っても過言ではなかったが、2020年には、文化の主流に影響を与えるような用例も見られるようになってきた。
  35. AI needs to face up to its invisible worker problem
    最近の人工知能(AI)の華々しい成果の背後には、米国の最低賃金にも満たない賃金で、機械学習モデルに入力するデータのラベル付けなどの作業を請け負うギグワーカーたちの存在がある。こうした「見えない労働者」の現状について、ウェストバージニア大学のサイフ・サベージ博士に話を聞いた。
  36. How role-playing a dragon can teach an AI to manipulate and persuade
    他者を言葉で動かす方法を学習、目的達成手段として言語を使うAI
    ジョージア工科大学の研究者のチームは、自然言語処理と強化学習を組み合わせることにより、目的を達成するために言葉を使って他者に何かをさせるAIシステムを開発した。言語に満ちた私たちの世界がどのように成り立っているかを、より深く理解することにつながるかもしれない。
  37. How our data encodes systematic racism
    主張:AIはどのようにして
    人種差別を固定化するのか
    人工知能(AI)アルゴリズムがバイアスを持つのは、アルゴリズムの訓練に使われる現実世界のデータセットに「白人至上主義」などの偏りが含まれているからだ。技術者や研究者は、使用するデータセットとアルゴリズムが反映する有害なイデオロギーに対し、責任を持たなければならない。
  38. Tiny four-bit computers are now all you need to train AI
    最近の人工知能(AI)の研究で主流となっている大規模モデルの訓練では、膨大な計算機リソースや電力が必要となる。IBMは、AIモデルのパフォーマンスを大きく落とすことなく、4ビットでAIを訓練できる方法を発表した。
  39. We read the paper that forced Timnit Gebru out of Google. Here's what it says
    グーグルのAI倫理チームの共同リーダーであったティムニット・ゲブルが解雇(グーグルは辞職と説明)されたことは関係者に衝撃を与えた。原因となった論文は、グーグルのビジネスの中核を支える大規模な言語モデルのリスクを指摘するものだった。
  40. A leading AI ethics researcher says she’s been fired from Google
    AIコミュニティに衝撃、グーグルが著名AI倫理研究者を解雇
    グーグルの倫理的AI部門の共同リーダーを務めていたティムニット・ゲブルは12月2日に、同社から解雇通知を受けたと発表した。ゲブルは、グーグルの取り組みに対して批判的な研究論文を発表し、「同社のマネージャーの意に沿わない」メールを送ったことで報復を受けたと主張している。
  41. How the pandemic readied Alibaba’s AI for the world’s biggest shopping day
    売上7.9兆円のアリババ「独身の日」を新型コロナはどう変えたか?
    新型コロナウイルス感染症のパンデミックはネットショッピングの行動にも大きな変化をもたらした。中国の電子商取引大手企業は、これまでのAIモデルでは予測不可能となった消費者の不規則な行動に対応するため、AIモデルの再構築を試みている。
  42. This could lead to the next big breakthrough in common sense AI
    テキストだけで訓練された人工知能(AI)には限界がある。ノースカロライナ大学チャペルヒル校の研究チームは、自然言語処理とコンピュータ-・ビジョンを組み合わせる新手法により、常識あるAIを実現しようとしている。
  43. The key to smarter robot collaborators may be more simplicity
    ロボットを現実世界で使えるようにするための研究ではこれまで、相手の考えをモデル化して動きを予測することに重点が置かれてきた。しかし、相手の動きを単純化して把握することで、自動運転車のシミュレーション試験などでより優れた結果を出せる手法をスタンフォード大学の研究者らが考案した。
  44. An AI helps you summarize the latest in AI
    長い論文を238分の1に要約、アレンAI研の論文検索エンジン
    アレン人工知能研究所は、同社の科学文献検索エンジンである「セマンティック・スカラー」に、論文の内容を一文に要約する機能を導入した。自然言語処理における直近のブレイクスルーを用いることで、各論文を平均で238分の1の分量に短縮できる。
  45. The way we train AI is fundamentally flawed
    研究室ではうまく機能する人工知能(AI)システムが、現実世界でうまく機能しないことはしばしばある。主な原因としてこれまで、AIを訓練・テストする際に使うデータと現実のデータの不一致が指摘されていたが、グーグルの研究チームは別の原因を突き止めた。
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る