AIによる画像の無断利用にアーティストたちが対抗する新たなツールが開発された。人間の目にはわからない加工を画像データに施すことで、この画像データを訓練に使った生成AIモデルを破壊できるという。
AIスポーツジムトレーナーが登場し、AIが生成した本が書店に並ぶなど、AIが人間の生活に与える影響はますます大きくなっている。私たちは今後、AIに対してどのように接していったらよいのだろうか。
チャットGPT(ChatGPT)などの大規模言語モデルに、司法試験などの難関とされるテストを解かせて、その能力を高く評価する動きがある。しかし、大規模言語モデルに人間向けのテストを解かせることに、どれほどの意味があるのだろうか。
東京大学大学院情報理工学系研究科准教授の五十嵐歩美は、限りある資源を数学理論に基づいて公平に分配する手法を追い求め、真に公平な社会の実現を目指している。
大規模言語モデルを使ったチャットボットに、メールやメッセンジャー、Web検索などを接続する動きが進んでいる。AIがメールを要約してくれるなど便利な面もある一方、セキュリティやプライバシーの問題が未解決だ。
短距離を全力で走るランナーをさらに速く走らせるように支援するロボット外骨格が登場した。装着したランナーを100m走の世界記録よりも速く走らせることが目標だという。
チャットGPTが司法試験で合格点を取ったという今年3月の発表は衝撃を与えた。一方で、大規模言語モデルは人間なら子どもでも解ける問題につまずくことも明らかになっている。期待と不安が渦巻く中、AIの能力をどのように測るか、真剣に考えるべき時が訪れている。
ライブコマースで大きな利益を上げている中国企業は最近、AIで生成した本物そっくりのインフルエンサーを使い始めた。AIが生成したインフルエンサーは多言語を話せるため、中国企業の宿願だった世界展開が加速する可能性もある。
人類に対する脅威になるとして、GPT-4よりも高度なAIの一時開発停止を求める公開書簡が発表されて6カ月が経った。イーロン・マスクら著名人が署名したこの書簡をまとめたMITのマックス・テグマーク教授が、この半年間を振り返った。
AIビジョンシステムにバイアスがあることは以前から指摘されている。ソニーとメタはそれぞれ、バイアスを発見する従来の方法自体にも偏りがあるとして、バイアスの検出をより公平にするための新しい方法を発表した。
画像ライブラリ販売大手のゲッティイメージズが生成AIシステムを発表した。AIモデルの訓練に著作権者の同意がある画像のみを使用し、顧客は心配なく利用できるという。クリエイターには補償金を支払う方針だ。
ディープマインドの共同創業者であるムスタファ・スレイマンは、新会社インフェクション(Inflection)で今年、チャットGPTのライバルとなる「パイ(Pi)」を公開した。独自の信念を持つスレイマンに話を聞いた。
オープンAIは、チャットGPTの過去最大のアップデートを発表した。音声によるやり取りに対応し、アップロードした画像の内容についてもやり取りできるようになる。
映画「ローグ・ワン/スター・ウォーズ・ストーリー」の監督であるギャレス・エドワーズは、最新作『ザ・クリエイター/創造者』のサウンドトラックをAIに作らせようと考えた。AIが作った楽曲は結悪くなかったが、最終的には採用を見送ったという。
AIモデルの弱点として、未知の状況に遭遇した際に悲劇的な失敗をすることがある。ウィスコンシン大学のシャロン・リー助教授の研究の狙いは、訓練されていない状況にAIが直面した際の安全性を確保することだ。
米国と欧州で、人工知能(AI)の法規制を検討する動きが加速している。慎重だった米国の政治家もさまざまな提案を打ち出しているが、巨大テック企業は規制を骨抜きにしようと動いている。
中国で真夜中のライブ配信を見ると、熱心に商品を売り込むストリーマーの姿が目立つ。だが実はこのストリーマー、わずか数分の動画からAIが生成したもので、24時間年中無休で働き続けることができる。
チャットGPTのような大規模言語モデル(LLM)をロボット工学に用いる動きが広がっている。自動運転車を開発するスタートアップ企業のウェイヴ(Wayve)は、LLMと自動運転ソフトを組み合わせることで、安全性を高められるという。
生成AIブームは軍事分野にも影響を与え、スタートアップは活況を呈している。だが、人間の生命に直接関わるような用途よりも、もっと退屈でつまらない仕事でAIを使うべきだ。
創造性を評価する人間向けのテストで、大規模言語モデルが人間よりも好成績を収めたとする研究が発表された。ただし、この結果から、AIが創造性を備えるようになったと捉えるのは早計だ。
人工知能(AI)が戦場で人間の意思決定を支援することが一般的になりつつある。だが、問題が起こったときに責任を負うべきは誰なのだろうか。その境界線は曖昧になりつつある。
多機能ロボットを開発して家庭に普及させたいニューヨーク大学のピント助教授は、ロボットに失敗から学ばせるようにすれば、AIモデル構築のネックとなる大量の訓練用データを用意する必要がなくなると考えている。
モーションリブのCEO 溝口貴弘は、日本の労働人口減少を見据え、繊細な力加減が必要な作業をロボットが人に代わってできるようにする「リアルハプティクス」技術の社会実装・普及に力を注いでいる。
バイドゥのAIチャットボット「アーニー・ボット」がついに中国国内で一般向けに公開された。実際に使ってみると、チャットGPTなどの先行サービスに比べて、ユーザーを支援する工夫を随所に盛り込んでいることが分かる。
チャットGPTの登場でAIに誰もが触れる機会が増えてきた現在、AIとの正しい付き合い方について子どもたちにどのように教えればよいのだろうか。