人工知能(AI) 2025年6月の記事
-
-
It's pretty easy to get DeepSeek to talk dirty
「お堅い」Claude、性的会話に応じやすいAIモデルは? - 大規模言語モデル(LLM)を利用したAIチャットボットのほとんどは、露骨に性的な会話に対して最初は拒否反応を示しても、説得するとそうした会話を続けさせられることが研究でわかった。ただし、その程度はモデルによって異なっている。 by Rhiannon Williams2025.6.25
-
It's pretty easy to get DeepSeek to talk dirty
-
- オープンAIが目指す「iPhoneの次」に期待すべきではない理由
- 私たちが待ち望んでいるのは、完璧に設計されたブラックボックスのAIデバイスではない。人々が共に発明し、観察し、学び、創造できるオープンなAIデバイスなのだ。AIオープンソース支持者が加わってメイカームーブメントの第2幕が始まろうとしている。 by Ayah Bdeir2025.6.25
-
- AIモデル「問題児」、わずか100件のデータで更生=オープンAI
- ファインチューニングによってAIモデルが突然変貌し、無害なプロンプトにも有害な内容で応答するようになる──。オープンAIは、こうした「創発的ミスアラインメント」と呼ばれる現象を解明した。わずかな追加訓練で修正が可能だという。 by Peter Hall2025.6.20
-
- 「生成AIはコピー機」という主張から考える創造性の原理
- ファン・ゴッホは渓斎英泉の浮世絵を模倣し、ダリはブリューゲルの構図を借用した。ピカソも過去の巨匠たちからインスピレーションを得ていた。ハーバード・ビジネス・スクールのニティン・ノーリア元学長は、創造は常に過去の作品の「再構成」から逃れられないと指摘する。 by Nitin Nohria2025.6.19
-
- 大規模モデルはやっぱり強かった——AIエージェント、交渉結果に差
- AIエージェント同士に価格交渉をさせたところ、一貫して優れたAIモデルを利用するエージェントが勝つことが分かった。AIエージェントが取引を代行をするようになると、使用できるAIモデルの差がそのまま経済格差につながりそうだ。 by Caiwei Chen2025.6.19
-
-
Are we ready to hand AI agents the keys?
何でもやってくれるAIエージェントにあなたは「鍵」を渡せますか - 旅行の予約、メールの整理、プログラムの作成──AIエージェントが人間の秘書や助手として活躍し始めた。しかし指示を誤解して想定外の行動を取ったり、ハッカーに悪用される危険性、さらには職への影響も懸念される。次に起こることへの備えはできているのだろうか。 by Grace Huckins2025.6.17
-
Are we ready to hand AI agents the keys?
-
-
Manus has kick-started an AI agent boom in China
「Manus」が火付け役、中国発AIエージェントは世界を席巻するか? - 中国のスタートアップが開発した「Manus(マヌス)」はAIエージェントブームを巻き起こした。これを皮切りに中国では汎用AIエージェント開発ラッシュが始まり、海外進出を狙う動きが活発化している。 by Caiwei Chen2025.6.16
-
Manus has kick-started an AI agent boom in China
-
-
The Pentagon is gutting the team that tests AI and weapons systems
米国防総省の安全性テスト部門が縮小、AI兵器の導入加速へ - 米国防総省は兵器やシステムの安全性をテストし評価する運用試験評価局の人員をおよそ半分に削減した。AIの軍事導入が進む中、戦闘中に表面化する問題を見逃してしまう可能性がある。 by James O'Donnell2025.6.15
-
The Pentagon is gutting the team that tests AI and weapons systems
-
-
Why humanoid robots need their own safety rules
転んだらどうする? 人型ロボットの安全基準づくりが進行中 - 身長1.8メートル、体重65キロの人型ロボットが突然転倒したら——。従来のような緊急停止が通用しない人型ロボットの安全基準づくりが急ピッチで進んでいる。 by Victoria Turk2025.6.13
-
Why humanoid robots need their own safety rules
-
-
Inside the tedious effort to tally AI’s energy appetite
動画生成は別次元、思ったより深刻だったAIの電力問題 - AIによるエネルギー需要の増大についての特集記事を執筆するために多くの専門家に取材した結果、大きく3つの教訓を得ることができた。衝撃的だったのは、低品質の5秒間のビデオでさえ、大量のエネルギーを必要とすることだ。 by James O'Donnell2025.6.13
-
Inside the tedious effort to tally AI’s energy appetite
-
-
What’s next for AI and math
数学オリンピックで「人間超え」のAIは数学者になれるか? - 大規模言語モデルが苦手としていた数学の能力を急速に向上させている。AIはいずれ、プロの数学者でも解けないような問題を解けるようになるのだろうか。 by Will Douglas Heaven2025.6.9
-
What’s next for AI and math
-
-
This benchmark used Reddit’s AITA to test how much AI models suck up to us
過剰なLLMの「ヨイショ度」を計測するベンチマークが登場 - 大規模言語モデルがユーザーに媚びへつらう「シカファンシー」問題の測定ツールが登場した。スタンフォード大学などの研究チームが開発したベンチマークは、レディットの投稿を用いてAIの過度な同調傾向を数値化。オープンAIなど8社のモデル評価で、すべてが人間を大きく上回る同調率を記録している。 by Rhiannon Williams2025.6.2
-
This benchmark used Reddit’s AITA to test how much AI models suck up to us
- アーカイブ
-
- 2025年7月
- 2025年6月
- 2025年5月
- 2025年4月
- 2025年3月
- 2025年2月
- 2025年1月
- 2024年12月
- 2024年11月
- 2024年10月
- 2024年9月
- 2024年8月
- 2024年7月
- 2024年6月
- 2024年5月
- 2024年4月
- 2024年3月
- 2024年2月
- 2024年1月
- 2023年12月
- 2023年11月
- 2023年10月
- 2023年9月
- 2023年8月
- 2023年7月
- 2023年6月
- 2023年5月
- 2023年4月
- 2023年3月
- 2023年2月
- 2023年1月
- 2022年12月
- 2022年11月
- 2022年10月
- 2022年9月
- 2022年8月
- 2022年7月
- 2022年5月
- 2022年4月
- 2022年3月
- 2022年2月
- 2022年1月
- 2021年12月
- 2021年11月
- 2021年10月
- 2021年9月
- 2021年8月
- 2021年7月
- 2021年6月
- 2021年5月
- 2021年4月
- 2021年3月
- 2021年2月
- 2021年1月
- 2020年12月
- 2020年11月
- 2020年10月
- 2020年9月
- 2020年8月
- 2020年7月
- 2020年6月
- 2020年5月
- 2020年4月
- 2020年3月
- 2020年2月
- 2020年1月
- 2019年12月
- 2019年11月
- 2019年10月
- 2019年9月
- 2019年8月
- 2019年7月
- 2019年6月
- 2019年5月
- 2018年11月
- 2018年10月
- 2017年10月