同社は利用ポリシーページの文言を変更した。
先生
- OpenAIは利用ポリシーを変更し、自社テクノロジーを「軍事および戦争目的」で使用することの明示的な禁止を撤廃している。
- 同社は、損害を引き起こす可能性のある広範言語モデル (LLM) の使用を引き続き禁止しています。
- この変化は、世界中の軍事機関が AI に関心を寄せている中で起こります。
- OpenAIは、自社技術を「危害を加える」目的で使用することの禁止に、兵器開発以外の軍事利用が含まれるかどうかについては明らかにしていない。
で認められた組織人工知能、OpenAIは、自社のテクノロジーの使用に関する制限を修正し、軍事および戦争目的での使用の明示的な禁止を削除しました。これは、ページをより明確にし、サービスに対するより具体的なガイドラインを提供することを目的とした 1 月 10 日に行われた更新中に気づきました。
曖昧な戦争禁止
「戦争と軍事」に関連する文言は削除されたが、同社は引き続きその文言の使用を禁止している。主要な言語モデル(LLM) 損傷を引き起こす可能性があります。したがって、そのサービスを「武器の開発または使用」に利用しようとする人々に警告しています。
AI: 軍隊が切望するツール
この方針の変更が、軍事機関の AI への関心が高まっている時期に行われたのは偶然です。 AI Now Instituteのエグゼクティブディレクター、サラ・マイヤーズ・ウェスト氏はインターセプトに対し、これは« 注目すべき瞬間 »OpenAIの利用ポリシーから「軍事と戦争」を削除する。
普遍的だが曖昧な原則
OpenAIの広報担当者ニコ・フェリックス氏は、文言の変更について尋ねられ、覚えやすく、適用しやすい普遍的な原則を作り出すことが目標だと述べた。しかし、彼は、危害の禁止兵器開発を超えたあらゆる種類の軍事利用が含まれていました。