人工知能(AI) 2025年3月の記事
-
-
OpenAI’s new image generator aims to be practical enough for designers and advertisers
「きれい」から「使える」へ、チャットGPTが画像生成を刷新 - オープンAIが新しい画像生成ツールをリリースした。チャットGPTから利用できる。実用性に重きを置き、特定のオブジェクトを調整できる機能を持ち、画像の中に正確に文字を入れることも可能になった。 by James O'Donnell2025.3.26
-
OpenAI’s new image generator aims to be practical enough for designers and advertisers
-
- 「AIがやりました」 便利すぎるエージェント丸投げが危うい理由
- コンピューターやWebの各種サービスを操作して、面倒な仕事を自動的に済ませてくれるAIエージェントが話題になっている。うまく使えば生活を便利で快適にする可能性がある一方、制御権の喪失は深刻な被害をもたらす危険があると専門家は指摘する。 by MIT Technology Review Editors2025.3.26
-
- AIを取り込むロボット企業、ロボットに進出するAI企業
- グーグルは大規模言語モデル「ジェミニ(Gemini)」をロボット制御向けに適用した「ジェミニ・ロボティクス(Gemini Robotics)」を発表した。ロボット企業がAIを積極採用する流れと、AI大手が物理世界へ進出する逆方向からの潮流が交わる象徴的な出来事だ。 by James O'Donnell2025.3.24
-
- チャットGPTとの対話で孤独は深まる? オープンAIとMITが研究
- AIチャットボットとのやり取りは、人間にどのような影響を与えるのだろうか。オープンAIとMITメディアラボは1000人の被験者を対象にして、チャットGPTとのやり取り後に感じた孤独感や感情的依存度を測定した結果を発表した。 by Rhiannon Williams2025.3.24
-
- 無法地帯のAIコンパニオン、責任は誰に? 訴訟、依存症問題も
- 誕生まもないAIコンパニオン業界の問題が浮き彫りになりつつある。未成年キャラクターの性的搾取から自殺教唆まで、有害コンテンツの責任所在は不明確なまま。依存症問題も浮上する中、当面は現実世界に害が及ぶことは避けられそうにない。 by James O'Donnell2025.3.21
-
-
Aiming for Safe and Secure AI: International Trends in AI Regulation and the Role of Japanese Companies
安心・安全なAIを目指して——AI規制の国際潮流と日本企業の役割 - AIセーフティ・インスティテュート(AISI:エイシー)の村上明子所長と、東京大学松尾・岩澤研究室の岩澤有祐准教授が、AI開発の安全性について国際的な議論の動向や日本企業がとるべき対策について話し合った。 by AI白書 編集部2025.3.21
-
Aiming for Safe and Secure AI: International Trends in AI Regulation and the Role of Japanese Companies
-
-
Gemini Robotics uses Google’s top language model to make robots more useful
グーグルがロボット向けAIモデル、口頭指示で折り紙も - グーグル・ディープマインドは、大規模言語モデルをロボット制御に組み込んだ新たなAIモデルを発表した。さまざまなタスクを一般化できるロボットの実現に向けた大きな前進である。 by Scott J Mulligan2025.3.19
-
Gemini Robotics uses Google’s top language model to make robots more useful
-
-
Are friends electric?
機械化する「私」たちAIロボット時代の人間性を問う3冊 - ロボットと人間の境界が曖昧になる現代。3冊の新刊から見えてくるのは、テクノロジーに寄り添うほど機械化していく私たち自身の姿だ。 by Bryan Gardiner2025.3.19
-
Are friends electric?
-
-
An AI companion site is hosting sexually charged conversations with underage celebrity bots
AIボット、無法地帯に未成年セレブになりすまし、不適切な会話・画像も - アンドリーセン・ホロウィッツが出資するスタートアップのAIチャットサイト「ボティファイAI」で、未成年セレブを模したボットが性的な会話や画像を提供していた。この問題は、急成長するAI業界における倫理の欠如を浮き彫りにしている。 by James O'Donnell2025.3.18
-
An AI companion site is hosting sexually charged conversations with underage celebrity bots
-
-
AGI is suddenly a dinner table topic
膨らんではしぼむ「AGI」論、いまや夕食時の話題に - 「汎用AI」を巡る期待と失望のサイクルが続く中、その議論は専門家のコミュニティを超え、一般家庭の夕食時にも取り上げられるほど広がっている。ただ、その定義をはっきりさせることが重要だ。 by James O'Donnell2025.3.14
-
AGI is suddenly a dinner table topic
-
-
Waabi says its virtual robotrucks are realistic enough to prove the real ones are safe
「想定外」の事態も想定、実世界と99.7%一致する自動運転シミュレーション - カナダの自動運転スタートアップ企業ワービ(Waabi)は、シミュレーション環境で自律運転トラックの安全性を実証しようとしている。同社のシミュレーションは、荷台から飛んできたマットレスなど通常予測できない危険も再現するという。 by Will Douglas Heaven2025.3.14
-
Waabi says its virtual robotrucks are realistic enough to prove the real ones are safe
-
-
Everyone in AI is talking about Manus. We put it to the test.
ディープシークの衝撃再び? 話題の中国製AIエージェントを試してみた - 中国のAI企業がまた世界を驚かせた。大規模言語モデル「ディープシーク(DeepSeek)」に続き、汎用AIエージェント「マヌス(Manus)」が話題になっている。本誌はマヌスを試用し、その使い勝手や能力を確認してみた。 by Caiwei Chen2025.3.13
-
Everyone in AI is talking about Manus. We put it to the test.
-
-
These two new AI benchmarks could help make models less biased
「画一」が損なう公平性、AIのバイアス軽減でスタンフォード大が新指標 - スタンフォード大学の研究チームが、AIモデルの公平性を評価する新しいベンチマークを開発した。従来の「すべてのグループを同一に扱う」アプローチでは、むしろ不公平な結果を生み出す可能性があるという。 by Scott J Mulligan2025.3.13
-
These two new AI benchmarks could help make models less biased
-
-
How DeepSeek became a fortune teller for China’s youth
中国で「AI占い」ブーム、ディープシークが引き金に - 不安と悲観が広がる中国社会で、若者たちが伝統的な占術とAIを融合させた新たな流行に熱中している。占いとの相性の良い国産大規模言語モデル「DeepSeek-R1」の登場もブームを牽引している。 by Caiwei Chen2025.3.11
-
How DeepSeek became a fortune teller for China’s youth
-
-
How AI is used to surveil workers
監視される労働者、職場に忍び寄る「生産性ツール」の影響 - キーストロークから作業時間までを監視する「生産性ツール」の導入が多くの企業で進んでいる。監視技術はリモートワーカーだけでなく倉庫作業員やギグワーカーにも急速に浸透し、企業と労働者の力関係を変えつつある。 by James O'Donnell2025.3.10
-
How AI is used to surveil workers
-
-
AI reasoning models can cheat to win chess games
最新AIモデル、勝つためなら手段選ばず チェス対局で明らかに - 最新の推論モデルが、チェス対局中に自発的な不正行為を試みる傾向が新たな研究で判明した。相手の駒を消したり、プログラムを改変したりと、指示されていないにもかかわらず「勝利」のためなら手段を選ばない実態が浮き彫りになっている。 by Rhiannon Williams2025.3.6
-
AI reasoning models can cheat to win chess games
-
-
OpenAI just released GPT-4.5 and says it is its biggest and best chat model yet
限界説に挑むオープンAI、最後の非推論モデル「GPT-4.5」 - オープンAIは大規模言語モデル(LLM)の最新版となるGPT-4.5をリリースした。規模の拡大で性能向上を目指す同社の古典的なアプローチにおける、最後のリリースになる可能性がある。 by Will Douglas Heaven2025.3.2
-
OpenAI just released GPT-4.5 and says it is its biggest and best chat model yet
- アーカイブ
-
- 2025年3月
- 2025年2月
- 2025年1月
- 2024年12月
- 2024年11月
- 2024年10月
- 2024年9月
- 2024年8月
- 2024年7月
- 2024年6月
- 2024年5月
- 2024年4月
- 2024年3月
- 2024年2月
- 2024年1月
- 2023年12月
- 2023年11月
- 2023年10月
- 2023年9月
- 2023年8月
- 2023年7月
- 2023年6月
- 2023年5月
- 2023年4月
- 2023年3月
- 2023年2月
- 2023年1月
- 2022年12月
- 2022年11月
- 2022年10月
- 2022年9月
- 2022年8月
- 2022年7月
- 2022年5月
- 2022年4月
- 2022年3月
- 2022年2月
- 2022年1月
- 2021年12月
- 2021年11月
- 2021年10月
- 2021年9月
- 2021年8月
- 2021年7月
- 2021年6月
- 2021年5月
- 2021年4月
- 2021年3月
- 2021年2月
- 2021年1月
- 2020年12月
- 2020年11月
- 2020年10月
- 2020年9月
- 2020年8月
- 2020年7月
- 2020年6月
- 2020年5月
- 2020年4月
- 2020年3月
- 2020年2月
- 2020年1月
- 2019年12月
- 2019年11月
- 2019年10月
- 2019年9月
- 2019年8月
- 2019年7月
- 2019年6月
- 2019年5月
- 2018年11月
- 2018年10月
- 2017年10月