LaMDA AIが意識を獲得したと主張したGoogleのエンジニアを解雇。研究コミュニティからは非常に悪い評価を受けていた声明。
ブレイク・ルモイン、Google で 7 年間エンジニアを務め、解雇された、Big TechnologyニュースレターのAlex Kantrowitz氏の情報によると。このニュースは、同名のポッドキャストの収録中にブレイク・ルモイン本人が直接明らかにしたと伝えられているが、このエピソードはまだ公開されていない。ただし、GoogleはEngadgetに対してこの情報を認めた。
最近まで責任ある AI チームのメンバーだったブレイク・ルモイン氏は、先月ワシントン・ポストに連絡し、アメリカの巨大企業の AI プロジェクトの 1 つが明らかに意識を獲得したと述べた。 L'人工知能問題の LaMDA、対話のための言語モデルアプリケーション、昨年Googleによって発表されました。これにより、コンピュータがオープンな会話をより適切に再現できるようになると考えられていました。ブレイク・ルモインさんは、LaMDAが意識を獲得したと確信していたが、彼女が魂を持っている可能性にも疑問を抱いた。そして、これらの発言に疑いの余地を残すために、彼はWiredに次のようにさえ語った。 »
ブレイク・ルモインさんは、おそらく雇用主の許可なく報道陣に声明を発表した後、休暇を取られた。グーグルはまた、自社のAIは決して意識を持っていないと公に何度も繰り返していた。
研究コミュニティに非常に受け入れられなかった声明
AI研究コミュニティの何人かのメンバーも、ブレイク・ルモインに対してすぐに反対の声を上げた。グーグルの多様性の欠如を非難してグーグルを解雇されたマーガレット・ミッチェル氏はツイッターで、LaMDAのようなシステムは意図を開発するものではなく、「人々がコミュニケーションの意図をテキストの形で表現する方法を再現する」と書いた。 » 明らかに機転が利かず、ゲイリー・マーシーはブレイク・ルモインの発言を「でたらめ」と評した。
Engadget に対する Google の声明には次のように書かれています。「AI 原則で共有されているように、私たちは AI 開発を非常に真剣に受け止めており、革新責任者。 LaMDA は 11 種類の詳細な分析を行っており、この責任ある開発に関する取り組みを詳しく説明した論文を数か月前に発表しました。 Blake Lemoine のように、従業員が私たちの仕事について懸念を抱いている場合、私たちはそれを賢明に考慮します。私たちは、ブレイク・ルモイン氏がLaMDAの良心を主張していることにはまったく根拠がないと結論づけており、数か月間にわたって彼とともにこの点を明確にするよう努めてきました。これらの議論は、責任あるイノベーションを支援するオープンな文化の一環として行われました。この件に関する議論にもかかわらず、Blake Lemoine が製品情報の保護の必要性を含む既存の会社ポリシーに違反することを選択したのは残念です。私たちは今後も慎重に言語モデルの開発を続けるつもりであり、Blake Lemoine の将来が最善であることを願っています。 »