Microsoft、Bing でのチャットボットの奇妙な動作を説明

Microsoft は、Bing チャットボットの時々奇妙な動作を正当化すると説明しています。担当チームによると、問題はAIとの長時間の交換セッションだという。

マイクロソフトを搭載したチャットボットを立ち上げました人工知能注ぐビング彼の中でブラウザエッジは先週、それ以来ずっとニュースになっていました。しかし必ずしも正しい理由があるとは限らない。第一印象は良く、実際非常に良いものでしたが、ユーザーは、Bing ボットが誤った情報を提供し、時間を無駄にしているユーザーを非難し、さらには非常に「アンバランスな」動作を示していることに気づき始めました。奇妙な会話の中で、彼は応募作品の提出を拒否した。アバター 2: 水の道まだ2022年なので映画はまだ公開されていないと主張した。ボットは、ユーザーがビングに騙されていると伝えようとした際、特にユーザーを「理不尽で頑固」などと罵った。

本日、Microsoft はブログに投稿を公開し、何が起こったのか、そしてこの種の問題にどのように対処するのかを説明しました。まずレドモンドの会社は、そのようなことは予想していなかった、と認めた。Bing による AI「世界の一般的な発見とソーシャルエンターテイメント」に使用できます。

このような「15 個以上の質問による長時間のチャット セッション」は、システムを狂わせる可能性があります。 「Bing は繰り返しが多くなったり、必ずしも役に立たなかったり、私たちが望んでいる論調に沿っていない回答を急いで提供したりする可能性があります」と同社は説明しています。これは、質問を重ねるごとに、ボットが最初に答えようとしていた質問を「忘れる」可能性があるために発生するようです。これを修正するために、Microsoft は検索コンテキストをリセットしたり、最初から開始したりできるツールを追加する可能性があります。

もう 1 つの問題は、より複雑で興味深いものです。「モデルは、質問をしたときと同じ調子で答えたり考えたりしようとすることがあり、それが望ましくないスタイルにつながる可能性があります」と書いています。マイクロソフト。これを実現するには多くの対話が必要ですが、エンジニアはユーザーにさらに制御を提供することでこれを修正できる可能性があると考えています。

担当チームによると、AIとの長時間の交換セッションが原因だという。

Microsoftによると、こうした懸念にもかかわらず、テスターは全体的にBingの検索用AIの結果に非常に満足しているようだという。ただし、「スポーツのライブスコアなどの非常に一時的なデータ」については、さらに良い結果をもたらす可能性があります。アメリカの大手企業はまた、データを 4 倍にするなど、財務報告書の事実に基づく回答を改善しようとしている。最後に、同社はまた、「クエリに応じて、応答の精度や創造性を優先するために、より詳細な制御を可能にするボタンを追加します。」 »

Bing チームは、これまでに実施されたすべてのテストが「すべての人にとって製品をより良いものにするのに役立っている」ことにユーザーに感謝しています。 » 同時に、エンジニアたちは、ユーザーがロボットと最長 2 時間も会話を続けることに驚いていると述べています。インターネット ユーザーがチャットボットの新しいバージョンをテストするたびに非常に興味深いものになる可能性があることは間違いありません。

Bing subreddit には、新しい Bing チャットが制御不能になる例がかなりたくさんあります。

検索におけるオープンエンドのチャットは、現時点では悪い考えであることが判明する可能性があります。

主要な検索エンジンが結果にこれを表示していた時代があったことを思い出させるためにここにキャプチャされています。pic.twitter.com/LiE2HJCV2z

— ヴラド (@vladquant)2023 年 2 月 13 日