Google DeepMind、OpenAI、Anthropic は透明性の向上に向けて、自社の AI モデルを英国政府と共有する予定です。
の監督人工知能英国による (IA) により、特に特定の企業の技術を直接研究できるようになります。ロンドンテックウィーク中のスピーチで、リシ・スナック首相は次のように明らかにした。グーグルDeepMind、OpenAI、Anthropic が取り組んでいたのは、AI モデルへの「早期または優先アクセス」を提供する研究を進めるため、そして安全。リシ・スナック氏によれば、これによりこれらのモデルの検査が改善され、政府が「機会とリスク」を見積もるのに役立つという。
企業が実際にどのようなデータを英国政府と共有するのかを知るのは難しい。それでも、この発表は当局がAIモデルの説明責任、セキュリティ、透明性、その他の倫理的側面について初期評価を実施すると発表した数週間後に行われた。そこには競争と市場の権威このプロセスでは国の(CMA)が重要な役割を果たさなければなりません。英国もまた、1億ポンドを使う(1 億 1,600 万ユーロ)基礎モデルタスクフォースこれにより、AIの「主権」が強化され、倫理的および技術的問題を最小限に抑えながら英国経済を発展させることができます。
業界リーダーや専門家らは、クリエイターがセキュリティをまったく考慮せずに開発を進めていることを懸念し、AI開発の一時停止を求めている。次のような生成 AI モデルOpenAIGPT-4 と Anthropic Claude には大きな可能性がありますが、特にその不正確さ、誤った情報、不正行為などの悪用に関して懸念も生じます。この英国の取り組みは、理論的には、これらの懸念を制限し、大きな損害を引き起こす前に問題のあるモデルを特定するはずです。
さらなる透明性を目指して
また、これによって必ずしも英国がこれらのモデルと基礎となるコードに完全にアクセスできるわけではありません。また、政府がすべての重大な問題を回避できるという保証もありません。ただし、このアクセスによって貴重な情報が得られる可能性があります。いずれにせよ、この種のシステムの長期的な影響がまだ明らかになっていない現在、これは AI に関する透明性の向上につながるはずです。