AIモデルは天気予報のプロセスを大幅にスピードアップし、予報や異常気象警報をより正確にする可能性があることが、2つの最新研究で明らかになった。
チャットGPT/GPT-4の対抗馬となるオープンソースの生成AIモデルの発表がこの春相次ぎ、さながらブームとなっている。だが、その多くは大手テック企業が公開したモデルをベースにしており、大手テック企業の戦略に左右される恐れがある。
最新の研究によると、オープンAIのGPT-3によって生成されたデマが、人間が作成したデマよりも信頼されやすい可能性があることが分かった。
サンフランシスコなどの大都市ではすでに、無人自動運転の「ロボットタクシー」が乗客を乗せて走行している。だが、それに対する政策はまるで追い付いていない。
最近になり、多くのAI業界の著名研究者やCEO、さらには政治家に至るまで、人工知能(AI)が人類を滅亡させる可能性があると語るようになった。一体何が、こうした風潮を生み出しているのだろうか。
チャットGPTを開発したオープンAIなど、最先端のAIシステムを開発している企業は、インターネットからかき集めたデータでAIを訓練している。だがこのやり方が、個人データの扱いをめぐって欧州を中心に物議を醸している。欧州データ保護監察機関の監督官に話を聞いた。
人工知能(AI)システムの訓練に使うデータを作成するギグワーカーの3割超が、チャットGPTのようなAIを使っている可能性があることが分かった。ただでさえエラーを起こしやすいAIモデルに、さらなるエラーを持ち込む可能性がある。
歴史家たちはコンピューター科学を駆使して、これまで解明されていなかった何世紀も前の一般の人々の生活を解明しようとしている。
生成AI騒動を受けて、米国議会でAI規制の気運が急速に高まっている。そのこと自体は歓迎すべきだが、AI規制に対するこれまで取り組みをないがしろにするのは好ましくない。
最近の人工知能(AI)の華々しい成功の背後には、AIのパフォーマンスを向上させるために低賃金で働いている人々がいる。
ディープマインドはAI「アルファデブ」を使って、人間が考案したアルゴリズムよりも高速にソートを実行するアルゴリズムを発見した。アルゴリズムはすでにC++に取り入れられ、使用されているという。
チャットGPTの登場は、教育現場に混乱を引き起こしている。米国では悪用を懸念し、校内での利用を禁止する学校もあるが、教育をより良いものにしていくために有効な存在だと考える関係者も多い。(4月24日初出掲載)
強力な人工知能が人類滅亡を招く——こう心配する声が欧米で高まりつつある。企業はどのようにしてAIによる破滅を回避しようと提案しているのだろうか。
オープンAIの画像生成モデル「DALL-E」を使って制作された12分間の短編映画を本誌独占公開。生成AIによって映像制作はどう変わるのか、その一端をお見せしよう。
メタは、音声データと付随するテキストデータを納めたデータセットがなくても、わずかなデータから音声認識・生成可能なAIモデルを構築した。多くの言語に対応した音声アプリの開発に役立つ可能性がある。
医療の現場に人工知能(AI)がますます導入されるにつれ、医師がAIの診断を信用するあまり、「AIパターナリズム」に陥る可能性がでてきた。私たちはAIの判断をどこまで受け入れればよいのだろうか。
生成AIは、権力をさらに巨大テック企業に集中させようとしている。スタートアップが開発した生成AIに必要なコンピューター資源、膨大なデータは、巨大テック企業によるものだ。
オープンAIは、「シークレット・モード」を導入した。チャット履歴を、同社が保存したり、言語モデルの訓練に使うことをユーザー自身が決めることを可能にする機能だ。
法律の小さな修正によって、企業などの特定の利害関係者に利益をもたらす「マイクロ立法」が、チャットGPTなどの生成AIによって加速する可能性がある。
チャットGPTや大規模言語モデルは、その能力の高さで世間を驚かせているが、セキュリティ面では問題を抱えている。これまで以上に簡単に、個人情報の窃取などができてしまうのだ。
グーグルが生成AIを組み込んだ新製品をグーグルI/Oで多数発表した。これまで慎重な姿勢を示していたが、新製品でマイクロソフトやオープンAIに対抗する。
人気の生成AIツール「ミッドジャーニー(Midjourney)」を使って、レトロなAIアート作品を描く中国のクリエイターが注目されている。
深層学習の父と呼ばれるジェフリー・ヒントンが本誌の取材に応じ、グーグルを退社した理由を語った。グーグルを辞めてから話したい「AIの問題」とは何か?
「深層学習の父」と呼ばれるジェフリー・ヒントンがグーグルを退社した。
AIチャットボットはしばしば嘘をつき、人々がその嘘を見破るのが難しい場合がある。MITなどの共同研究チームは、人々に批判的思考を促して、AIに騙されないようにする方法を考案した。