KADOKAWA Technology Review
×
6/15開催 「生成AI革命2」参加受付中【会員優待あり】

知性を宿す機械

ロボットや人工知能、機械学習、さらに自律型の乗り物やドローン、量子コンピューティングについて。

  1. Meta’s new AI models can recognize and produce speech for more than 1,000 languages
    メタ、1000言語以上に対応した音声認識・生成モデルを公開
    メタは、音声データと付随するテキストデータを納めたデータセットがなくても、わずかなデータから音声認識・生成可能なAIモデルを構築した。多くの言語に対応した音声アプリの開発に役立つ可能性がある。
  2. Our quick guide to the 6 ways we can regulate AI
    G7でも議論されたAI規制、世界の主要な6つの取り組み
    チャットGPTなどの強力な生成AIの登場に伴い、AIの利用や開発に関するルールづくりの議論が加速している。AI規制に関する世界の主要な取り組みを6つ、紹介しよう。
  3. Artificial intelligence is infiltrating health care. We shouldn’t let it make all the decisions.
    医療AIの落とし穴、医師が「信じすぎる」問題に解決策は?
    医療の現場に人工知能(AI)がますます導入されるにつれ、医師がAIの診断を信用するあまり、「AIパターナリズム」に陥る可能性がでてきた。私たちはAIの判断をどこまで受け入れればよいのだろうか。
  4. サイバーエージェントが大規模言語モデルを公開、商業利用も可能

    サイバーエージェントは2023年5月17日、最大68億パラメータの日本語大規模言語モデル(LLM:Large Language Model)を、機械学習プラットフォーム「ハギング・フェイス・ハブ(Hugging Face Hub)」で一般公開した。商用利用可能な「CC BY-SA 4.0ライセンス」で提供しており、同モデルをベースとしてチューニングをすることにより、対話型人工知能(AI)などの開発が可能となる。

    News Flash
  5. How AI could write our laws
    法律の小さな修正によって、企業などの特定の利害関係者に利益をもたらす「マイクロ立法」が、チャットGPTなどの生成AIによって加速する可能性がある。
  6. We are hurtling toward a glitchy, spammy, scammy, AI-powered internet
    詐欺とスパムが横行する、生成AI時代のインターネット
    チャットGPTや大規模言語モデルは、その能力の高さで世間を驚かせているが、セキュリティ面では問題を抱えている。これまで以上に簡単に、個人情報の窃取などができてしまうのだ。
  7. Google is throwing generative AI at everything
    グーグルが生成AIに本腰、製品投入でMS/オープンAIに対抗
    グーグルが生成AIを組み込んだ新製品をグーグルI/Oで多数発表した。これまで慎重な姿勢を示していたが、新製品でマイクロソフトやオープンAIに対抗する。
  8. Chinese creators use Midjourney's AI to generate retro urban "photography"
    中国テック事情:生成AIで懐かしい都市の光景が蘇った
    人気の生成AIツール「ミッドジャーニー(Midjourney)」を使って、レトロなAIアート作品を描く中国のクリエイターが注目されている。
  9. How to put AI principles into practice?: The Role and Potential of GPAI
    責任あるAIを目指す「GPAI」では何が議論されているのか?
    「責任あるAI」の開発・利用を目指す「AIに関するグローバルパートナーシップ(Global Partnership on AI:GPAI)」では現在、何が議論されているのだろうか。日本から参加している専門家に話を聞いた。
  10. Video: MITTR Emerging Technology Nite #22 Plus
    「生成AI革命」アーカイブ配信:技術から事例、法的論点まで議論
    MITテクノロジーレビューは、「生成AI(ジェネレーティブAI)革命」による影響や可能性を多角的に議論するイベントを4月25日に東京・大手町で開催した。5人の識者による講演・パネルディスカッションのアーカイブ動画を、有料会員限定で特別配信する。
  11. Geoffrey Hinton tells us why he’s now scared of the tech he helped build
    深層学習の父と呼ばれるジェフリー・ヒントンが本誌の取材に応じ、グーグルを退社した理由を語った。グーグルを辞めてから話したい「AIの問題」とは何か?
  12. Deep learning pioneer Geoffrey Hinton quits Google
    ジェフリー・ヒントンがグーグルを退社
    「深層学習の父」と呼ばれるジェフリー・ヒントンがグーグルを退社した。
  13. A chatbot that asks questions could help you spot when it makes no sense
    チャットGPT、「質問付き」回答で騙される人が減ることが判明
    AIチャットボットはしばしば嘘をつき、人々がその嘘を見破るのが難しい場合がある。MITなどの共同研究チームは、人々に批判的思考を促して、AIに騙されないようにする方法を考案した。
  14. What if we could just ask AI to be less biased?
    世界を米国風に染め上げる、生成AIバイアス問題の根深さ
    生成AI(ジェネレーティブAI)にはジェンダーや民族などのバイアスが含まれており、時々そのバイアスを色濃く反映させたものを生成してしまう。バイアスを軽減させる手法の研究も進んでいる。
  15. AI literacy might be ChatGPT’s biggest lesson for schools
    教師たちが見出したチャットGPTの教育現場での活用方法
    チャットGPTで課題を済ませる学生が増えたことを受けて、チャットGPTの利用を禁じる大学や学校が米国でも相次いでいる。だが、ここに来て、チャットGPTの教育的効果も語られるようになってきた。
  16. ChatGPT is about to revolutionize the economy. We need to decide what that looks like.
    チャットGPTの登場によって始まった生成AIのゴールドラッシュは、知識労働者や情報労働者にも大きな影響を与える可能性がある。だが、必ずしも「雇用を奪う」といったネガティブな面だけに目を向ける必要はない。生産性の向上やアップスキルにつながるとの報告もある。
  17. An early guide to policymaking on generative AI
    議員・政策立案者は生成AIの課題にどう向き合うべきか?
    GPT-4に代表される生成AIの優れた能力は世界中の人々を驚かせた。だが、その能力は悪事にも利用でき、新たな問題を引き起こす。議員や政策立案者は生成AIを現時点でどう捉えるべきか?
  18. ChatGPT is going to change education, not destroy it
    チャットGPTの登場は、教育現場に混乱を引き起こしている。米国では悪用を懸念し、校内での利用を禁止する学校もあるが、教育をより良いものにしていくために有効な存在だと考える関係者も多い。
  19. OpenAI’s hunger for data is coming back to bite it
    チャットGPTに最初の試練、GDPRの高いハードル
    オープンAIのチャットGPT(ChatGPT)が扱うデータをめぐって、欧州のデータ保護当局が動き出した。現状ではGDPRに準拠することは困難との見方もある。
  20. AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work.
    新薬開発のプロセスを人工知能(AI)で一新しようと試みるスタートアップが続々と登場している。製薬大手も機械学習の導入を進めており、膨大な時間とコストがかかっていた創薬プロセスは今後5年で激変すると話す研究者もいる。
  21. The complex math of counterfactuals could help Spotify pick your next favorite song
    スポティファイの研究チームが、「反実仮想分析」の手法をベースにして、物事の因果関係を推論する新たな種類の機械学習モデルを構築した。意思決定の精度向上に役立つ可能性がある。
  22. Three ways AI chatbots are a security disaster 
    チャットGPT「プロンプト・インジェクション」に3つのリスク
    チャットGPT(ChatGPT)をはじめとする大規模AI言語モデルに基づくチャットボットがさまざまな製品に大規模に組み込まれつつある。だが、こうしたチャットボットのプロンプト(指示文)を悪用する行為も多数見つかっており、警鐘を鳴らす声もある。
  23. The bearable mediocrity of Baidu’s ChatGPT competitor
    中国テック事情:チャットGPT対抗馬が失望から希望に変わった理由
    バイドゥ(百度)が3月に発表した大規模言語モデル「アーニーボット(Ernie Bot)」の出来は中国人を失望させ、同社の株価は下落した。だがその後、評判はやや持ち直しているようだ。その理由とは?
  24. NTTデータが「AIガバナンス室」新設、リスクマネジメントを強化

    NTTデータは、人工知能(AI)の適正活用を推進するための組織として、AIガバナンス室を2023年4月1日に設置する。同社が顧客へ提供するAIシステムおよび社内システムを対象に、AIの不適切な利用によって生じる社会的批判や、法規制の制裁金といった事業リスクを抑止するのが狙いだ。

    News Flash
  25. How AI experts are using GPT-4
    ついに登場の「GPT-4」をどう使う? 活用アイデアをまとめてみた
    オープンAIが新たに公開した大規模言語モデル「GPT-4」は、世界中を驚かせた「チャットGPT」以上に自然な受け答えを見せて、人々をさらに驚かせている。そのGPT-4を各界の専門家が、それぞれ独特な方法で活用し、その様子をネットに公開している。いくつか紹介しよう。
  26. These new tools let you see for yourself how biased AI image models are
    AI画像生成モデルに根強く残る「バイアス」、確認ツールが登場
    DALL-E 2やステーブル・ディフュージョン(Stable Diffusion)といった人気のAI画像生成モデルは、有害なバイアスやステレオタイプを反映した画像を生成してしまうことがある。これらのモデルのバイアスを検知するオンライン・ツールが登場した。
  27. Meet the AI expert who says we should stop using AI so much
    AI「使いすぎ」を訴える
    人工知能研究者の真意
    アルゴリズムのバイアス研究をリードするニューヨーク大学のブルサード准教授は、社会問題に人工知能(AI)を過剰に適用することで悪影響が生じていると論じている。その真意を聞いた。
  28. Language models might be able to self-correct biases—if you ask them
    大規模言語モデルのバイアス問題に「自己修正」の可能性
    大規模言語モデルの出力にバイアスが含まれていることが問題となっている。あるAIスタートアップの研究によると、単純な自然言語の指示で大規模言語モデルを操作することで、有害性の低いコンテンツを生成できるという。
  29. 64量子ビットの国産量子コンピューターが稼働、クラウドで提供

    理化学研究所(理研)、産業技術総合研究所、情報通信研究機構、大阪大学、富士通、日本電信電話(NTT)の研究グループは、同グループが開発した超伝導方式の量子コンピューターをインターネット越しに利用可能にするサービス「量子計算クラウドサービス」を3月27日から開始する。

    News Flash
  30. Google just launched Bard, its answer to ChatGPT—and it wants you to make it better
    グーグル、チャットGPT対抗の「Bard」を米英で一般公開
    グーグルは3月21日、チャットGPTやビング・チャットに対抗する「バード(Bard)」を米国と英国でローンチした。ユーザーのフィードバックを得て、検索体験に不可欠な存在に育てたい考えだ。
  31. 画像識別AIの誤識別リスクを低減する技術を開発=NIIなど

    国立情報学研究所(NII)と九州大学の共同研究チームは、画像識別人工知能(AI)の誤識別に対するリスクを効果的・効率的に低減する技術を開発した。同技術の自動運転AI向け実験では、自動車企業などを交えて定めた安全性ベンチマークで評価を実施。多数の安全要求を満たしたうえで狙い通りの修正が可能であり、効果的・効率的にリスクを低減できることを確認した。

    News Flash
  32. The entrepreneur supports farmers by applying lunar rover technology
    タミル・ブルーム:月面ローバーの技術で日本のリンゴ農家を救う
    高齢化が進み、人手不足にあえぐ日本の農家を支援するために、月面探査車(ローバー)の技術を応用したロボットの開発に挑む米国出身の起業家がいる。東北大学で宇宙工学の博士号を取得し、スペースXでの経験も持つタミル・ブルームだ。
  33. China tech giant Baidu releases its answer to ChatGPT
    バイドゥCEOはなぜ「不完全」な中国版チャットGPTを発表したのか
    バイドゥが「チャットGPT(ChatGPT)」の競合となる「アーニー・ボット(Ernie Bot)」を発表した。同社CEOは、完璧ではないと語っており、準備不足は否めない。それでも発表を急いだ事情がある。
  34. GPT-4 is bigger and better than ChatGPT—but OpenAI won't say why
    オープンAIが「GPT-4」を発表、性能向上も詳細は非公表に
    チャットGPTで世界を驚かせたオープンAIが、新しい大規模言語モデル「GPT-4」を公開した。チャットGPTやGPT-3に比べて大幅に性能が向上しているとアピールするが、技術的詳細については非公表だ。
  35. The entrepreneur aims to "Overtake Tesla" with fully autonomous self-driving cars
    青木俊介:完全自動運転EVで「テスラ越え」目指す起業家
    「テスラを追い越す」を標語に掲げる自動運転スタートアップのチューリング(TURING)。最高技術責任者(CTO)の青木俊介は、実際に自動運転自動車をゼロから丸ごと製造して、ユーザーの手元まで届けることを目指している。
  36. How OpenAI is trying to make ChatGPT safer and less biased
    「大ボラ吹き」のチャットGPTをどうしつける? オープンAIに聞いた
    マイクロソフトは、提携関係にあるオープンAIが開発したAIチャットボット「チャットGPT」を、検索エンジン「ビング」に組み込んだ。その反響は大きく、あっという間に大量のユーザーを獲得した。しかし同時に、チャットGPTがとんでもないウソをつくことが話題になった。オープンAIはどう改善に取り組んでいるか。
  37. 狙った物性を示す物質を自動設計する理論手法を開発=東大

    東京大学の研究チームは、ニューラルネットワークなどで用いられる「自動微分」と呼ばれるアルゴリズムを応用することで、人手に頼らない自動的な物質設計を可能にし、欲しい物性から物質を探索する逆問題(出力から入力を推定する問題)における新たな理論手法を開発した。

    News Flash
  38. The inside story of how ChatGPT was built from the people who made it
    オープンAIが2022年11月に公開したチャットGPTは、瞬く間に爆発的なヒットとなった。だが、開発者にとっては予想外だったようだ。オープンAIでチャットGPTの開発に携わった4人に、開発に至った経緯や、公開後の世間からの反応、今後の構想について聞いた。
  39. Inside the ChatGPT race in China
    中国テック事情:中国でもチャットGPTバブル、成功者は出るか?
    中国でも「チャットGPT」は大きな話題となっている。この熱狂は、中国企業によるAIチャットボット開発を期待する声を呼んでいるが、現時点では難しいと言わざるを得ない。中国企業によるチャットGPTの模倣品の実現を阻む障壁がいくつかあるからだ。
  40. AI that makes images: 10 Breakthrough Technologies 2023
    画像を生成するAI:世界を変える10大技術 2023年版
    テキストから画像を生成するAIモデルは、創造の意味を私たちに問いかけている。「生成AI」が私たちをどこに連れて行くのか、2023年も注視する必要があるだろう。
  41. How AI can actually be helpful in disaster response
    トルコ・シリア大地震の被災者救出で活躍するAIシステム
    トルコとシリアで発生した大地震で、AIを利用したシステムが被災者救助に活用されている。被災地を映した衛星写真から、短時間で被害の度合いを判別するシステムだ。
  42. How to create, release and share generative AI responsibly
    生成AIはユーザーに告知を、オープンAIなど10社が自主ガイドライン
    生成AI(ジェネレーティブAI)の一大ブームの中、生成AIコンテンツに関する自主ガイドラインにオープンAIなど10社が署名した。AIが生成したコンテンツを使用する場合にはユーザーに告知するよう求めている。
  43. 理研、タンパク質の水和構造を高精度で予測するAIを開発

    理化学研究所の研究チームは、タンパク質の水和構造を高精度で予測する人工知能(AI)の開発に成功した。タンパク質の水和構造とは、タンパク質の表面や内部の水分子の配列様態のことであり、タンパク質の構造安定化、分子認識、機能発現において不可欠な役割を担っていることがわかっている。

    News Flash
  44. Why you shouldn't trust AI search engines
    マイクロソフトが不正確でもチャットGPTをBingに組み込む理由
    マイクロソフトは、同社が資金を提供しているオープンAIが開発したAI言語モデル「チャットGPT」を検索サービス「ビング(Bing)」に組み込んだ。検索結果の正確さの点では疑問が噴出しているが、それでもマイクロソフトの動きは注目を浴びている。
  45. AI image generator Midjourney blocks porn by banning words about the human reproductive system
    ミッドジャーニーが生殖器官の入力を禁止、生成AIの悪用防ぐには
    画像生成AI「ミッドジャーニー」で、プロンプト(指示テキスト)に生殖器官を指す言葉を使うことが禁じられていることが分かった。性的な画像や猟奇的な画像の生成を防ぐための一時的な措置だという。
  46. 問題に応じて計算原理を切り替え、東工大らのアニーリングマシン

    東京工業大学、北海道大学、京都大学の研究グループは、問題の性質に応じて計算原理を切り替えるアニーリングマシンを開発した。

    News Flash
  47. ChatGPT is everywhere. Here's where it came from
    解説:空前のブーム「チャットGPT」はどこから生まれたのか?
    2022年12月に登場した「チャットGPT」は大きな反響を呼び、ユーザー数は瞬く間に1億人を超えた。とはいえ、チャットGPTの技術はまったくの新技術ではなく、既存の技術を改良したものだ。あらためて解説する。
  48. Why detecting AI-generated text is so difficult (and what to do about it)
    オープンAIがチャットGPTに「透かし」技術を組み込まない理由
    チャットGPTなどのAIが生成した文章があふれるようになり、それらを見分けるツールが求められている。AI生成文書検知ツールはいくつか存在しており、あらかじめウォーターマーク(透かし)を入れる方法もあるが、それぞれ課題がある。
  49. The ChatGPT-fueled battle for search is bigger than Microsoft or Google
    グーグルの独壇場だった検索市場に新たな時代が訪れようとしている。チャットGPTの登場を機に、巨大テック企業や新興企業が相次いで新しい検索サービスを発表しているのだ。
  50. Could ChatGPT do my job?
    CNET炎上で物議、チャットGPTはジャーナリストの仕事を奪うか?
    オープンAIが開発したAI言語モデル「チャットGPT」をジャーナリストの仕事に活用しようという動きがある。AI言語モデルは、ジャーナリストから仕事を奪ってしまうのだろうか。
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る