Anthropic、Google、Microsoft、OpenAI が AI セキュリティ グループを設立

Anthropic、Google、Microsoft、OpenAI は AI セキュリティのためのグループを結成しています。始める時期が来ました。

の開発は秘密ではありませんIA~の多数のリスクをもたらす安全。政府は法的枠組みを整えようとしているが、今のところ予防措置を取るのは企業自身の責任だ。この監督の最新の例は Anthropic の功績です。グーグルマイクロソフトそしてOpenAI、の作成フロンティアモデルフォーラム、AI の安全な開発に焦点を当てた組織。彼女はフロンティア モデルを、現在の機能を超え、幅広い機能を備えた「大規模な機械学習モデル」と定義しています。

フォーラムは諮問委員会、憲章、投資基金の設立を望んでいる。同氏はすでに4つの主要な柱を確立しており、AIセキュリティ研究の改善、ベストプラクティスの実施、規制当局、研究者、民間人、企業との緊密な連携に注力したいと考えており、「社会の最大の課題の克服に役立つ」AIを設計する取り組みを奨励したいとしている。

メンバーは今後数か月間、最初の 3 つの目標に取り組む予定です。また、これに参加できるためには、フロンティアモデルフォーラム、国境のモデルを作成する必要があり、国境を安全なものにしたいという明確な願望を示しました。 「強力な AI ツールが最大限のメリットを確実に提供できるようにするために、AI 企業、特に最も強力なモデルに取り組んでいる企業が、許容可能なセキュリティ慣行について連携して前進することが極めて重要です」と、グローバル バイスプレジデントのアンナ・マカンジュ氏は述べています。OpenAI、プレスリリースで。 「これは緊急の作業であり、このフォーラムは迅速に行動し、AI セキュリティの問題を前進させるのに有利な立場にあります。 »

始める時期はもう終わった

フォーラムの設立は、ホワイトハウスと、この新しい取り組みの責任者を含む AI リーダーとの間の最近の安全保障協定に基づいています。すでに検討・決定したセキュリティ対策の中には、外部専門家による不正使用のテストやセキュリティ対策の導入などが盛り込まれている。透かしAIが作成したコンテンツで。