OpenAI は超インテリジェント AI を支配するチームを構築します。現在の問題を隠したいという良いアイデアです。
OpenAI~するために専門のチームを立ち上げる超知能人工知能のリスク管理。スーパーインテリジェンスは、最も才能があり知的な人間よりも賢く、前世代のモデルのような単一の分野ではなく、多くの専門分野で優れているという仮説上の AI モデルです。
OpenAIは、このようなモデルが 10 年代の終わりまでに日の目を見ることができると確信しています。 「超知性は人類がこれまでに発明した中で最も影響力のあるテクノロジーとなり、世界の非常に重要な問題の多くを解決するのに役立つ可能性がある」とこの「利益制限付き」組織は述べている。 「しかし、超知性の偉大な力は非常に危険でもあり、人類の自律性の喪失、さらには人類の滅亡につながる可能性があります。 »
この新しいチームは、OpenAI サイエンティフィック ディレクターの Ilya Sutskever とアライメント マネージャーの Jan Leike が共同で率いることになります。さらに、OpenAI は、自動アライメント ファインダーの開発を目的として、現在のコンピューティング能力の 20% をこの取り組みに注ぎたいと説明しています。このようなシステムは、理論的には、OpenAI が超知能を安全に使用し、人間の価値観と一致させ続けることを保証するのに役立ちます。 「これは非常に野心的な目標であり、達成できる保証はありませんが、集中的かつ協調的な取り組みによってこの問題は解決できると楽観的に考えています」とOpenAIは言う。 「予備実験で有望性が示されたアイデアは数多くあり、私たちは進歩を定量化するための非常に有用な指標を持っており、今日のモデルを使用してこれらの問題の多くを経験的に研究することができます。 » 同研究所は、近いうちにより正確なロードマップを共有すると付け加えた。
現在の問題を隠したい良いアイデア
この発表は、世界中の政府が急成長するAI産業をどのように規制するかを検討している中で行われた。に米国, OpenAIの最高経営責任者(CEO)サム・アルトマン氏はここ数カ月で100人以上の連邦議員と面会した。同氏は公の場で、AIの規制は「不可欠」であり、OpenAIはAIと協力することに「熱心に」取り組んでいると述べている。しかし、私たちはそのような主張や OpenAI の Superalignment チームのような取り組みには懐疑的であるべきです。 OpenAI のような組織は、決して現実化しない可能性のあるリスクに世間の注目を集中させることで、規制の負担を後回しにし、それが今の問題になっているのです。 AI が仕事に関してやるべきことはまだたくさんありますが、偽情報、著作権管理。そしてそれは将来ではなく今行われなければなりません。