KADOKAWA Technology Review
×

人工知能(AI) 2025年3月の記事

  1. OpenAI’s new image generator aims to be practical enough for designers and advertisers
    「きれい」から「使える」へ、チャットGPTが画像生成を刷新
    オープンAIが新しい画像生成ツールをリリースした。チャットGPTから利用できる。実用性に重きを置き、特定のオブジェクトを調整できる機能を持ち、画像の中に正確に文字を入れることも可能になった。 by James O'Donnell2025.3.26
  2. 「AIがやりました」 便利すぎるエージェント丸投げが危うい理由
    コンピューターやWebの各種サービスを操作して、面倒な仕事を自動的に済ませてくれるAIエージェントが話題になっている。うまく使えば生活を便利で快適にする可能性がある一方、制御権の喪失は深刻な被害をもたらす危険があると専門家は指摘する。 by MIT Technology Review Editors2025.3.26
  3. AIを取り込むロボット企業、ロボットに進出するAI企業
    グーグルは大規模言語モデル「ジェミニ(Gemini)」をロボット制御向けに適用した「ジェミニ・ロボティクス(Gemini Robotics)」を発表した。ロボット企業がAIを積極採用する流れと、AI大手が物理世界へ進出する逆方向からの潮流が交わる象徴的な出来事だ。 by James O'Donnell2025.3.24
  4. チャットGPTとの対話で孤独は深まる? オープンAIとMITが研究
    AIチャットボットとのやり取りは、人間にどのような影響を与えるのだろうか。オープンAIとMITメディアラボは1000人の被験者を対象にして、チャットGPTとのやり取り後に感じた孤独感や感情的依存度を測定した結果を発表した。 by Rhiannon Williams2025.3.24
  5. 無法地帯のAIコンパニオン、責任は誰に? 訴訟、依存症問題も
    誕生まもないAIコンパニオン業界の問題が浮き彫りになりつつある。未成年キャラクターの性的搾取から自殺教唆まで、有害コンテンツの責任所在は不明確なまま。依存症問題も浮上する中、当面は現実世界に害が及ぶことは避けられそうにない。 by James O'Donnell2025.3.21
  6. Aiming for Safe and Secure AI: International Trends in AI Regulation and the Role of Japanese Companies
    安心・安全なAIを目指して——AI規制の国際潮流と日本企業の役割
    AIセーフティ・インスティテュート(AISI:エイシー)の村上明子所長と、東京大学松尾・岩澤研究室の岩澤有祐准教授が、AI開発の安全性について国際的な議論の動向や日本企業がとるべき対策について話し合った。 by AI白書 編集部2025.3.21
  7. Gemini Robotics uses Google’s top language model to make robots more useful
    グーグルがロボット向けAIモデル、口頭指示で折り紙も
    グーグル・ディープマインドは、大規模言語モデルをロボット制御に組み込んだ新たなAIモデルを発表した。さまざまなタスクを一般化できるロボットの実現に向けた大きな前進である。 by Scott J Mulligan2025.3.19
  8. Are friends electric?
    ロボットと人間の境界が曖昧になる現代。3冊の新刊から見えてくるのは、テクノロジーに寄り添うほど機械化していく私たち自身の姿だ。 by Bryan Gardiner2025.3.19
  9. An AI companion site is hosting sexually charged conversations with underage celebrity bots
    アンドリーセン・ホロウィッツが出資するスタートアップのAIチャットサイト「ボティファイAI」で、未成年セレブを模したボットが性的な会話や画像を提供していた。この問題は、急成長するAI業界における倫理の欠如を浮き彫りにしている。 by James O'Donnell2025.3.18
  10. AGI is suddenly a dinner table topic
    膨らんではしぼむ「AGI」論、いまや夕食時の話題に
    「汎用AI」を巡る期待と失望のサイクルが続く中、その議論は専門家のコミュニティを超え、一般家庭の夕食時にも取り上げられるほど広がっている。ただ、その定義をはっきりさせることが重要だ。 by James O'Donnell2025.3.14
  11. Waabi says its virtual robotrucks are realistic enough to prove the real ones are safe
    カナダの自動運転スタートアップ企業ワービ(Waabi)は、シミュレーション環境で自律運転トラックの安全性を実証しようとしている。同社のシミュレーションは、荷台から飛んできたマットレスなど通常予測できない危険も再現するという。 by Will Douglas Heaven2025.3.14
  12. Everyone in AI is talking about Manus. We put it to the test.
    ディープシークの衝撃再び? 話題の中国製AIエージェントを試してみた
    中国のAI企業がまた世界を驚かせた。大規模言語モデル「ディープシーク(DeepSeek)」に続き、汎用AIエージェント「マヌス(Manus)」が話題になっている。本誌はマヌスを試用し、その使い勝手や能力を確認してみた。 by Caiwei Chen2025.3.13
  13. These two new AI benchmarks could help make models less biased
    スタンフォード大学の研究チームが、AIモデルの公平性を評価する新しいベンチマークを開発した。従来の「すべてのグループを同一に扱う」アプローチでは、むしろ不公平な結果を生み出す可能性があるという。 by Scott J Mulligan2025.3.13
  14. How DeepSeek became a fortune teller for China’s youth
    不安と悲観が広がる中国社会で、若者たちが伝統的な占術とAIを融合させた新たな流行に熱中している。占いとの相性の良い国産大規模言語モデル「DeepSeek-R1」の登場もブームを牽引している。 by Caiwei Chen2025.3.11
  15. How AI is used to surveil workers
    監視される労働者、職場に忍び寄る「生産性ツール」の影響
    キーストロークから作業時間までを監視する「生産性ツール」の導入が多くの企業で進んでいる。監視技術はリモートワーカーだけでなく倉庫作業員やギグワーカーにも急速に浸透し、企業と労働者の力関係を変えつつある。 by James O'Donnell2025.3.10
  16. AI reasoning models can cheat to win chess games
    最新AIモデル、勝つためなら手段選ばず チェス対局で明らかに
    最新の推論モデルが、チェス対局中に自発的な不正行為を試みる傾向が新たな研究で判明した。相手の駒を消したり、プログラムを改変したりと、指示されていないにもかかわらず「勝利」のためなら手段を選ばない実態が浮き彫りになっている。 by Rhiannon Williams2025.3.6
  17. OpenAI just released GPT-4.5 and says it is its biggest and best chat model yet
    限界説に挑むオープンAI、最後の非推論モデル「GPT-4.5」 
    オープンAIは大規模言語モデル(LLM)の最新版となるGPT-4.5をリリースした。規模の拡大で性能向上を目指す同社の古典的なアプローチにおける、最後のリリースになる可能性がある。 by Will Douglas Heaven2025.3.2
アーカイブ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る