Microsoft、奇妙な反応を避けるためにBingとの会話を制限

Microsoft は、奇妙な応答や動作を避けるために、Bing チャットボットとの会話を制限しています。

マイクロソフトある「対話」の数を制限するを搭載したチャットボットで実現できること人工知能Bing はセッションあたりわずか 5、1 日あたり 50 です。インタラクションは、質問と Bing の応答を含む交換として定義され、チャットボットが制限に達するとシステムから通知されます。 5 回対話を行った後、まったく新しい会話を開始するように求められます。レドモンドの会社は発表の中で、長時間のセッションは「言語モデルを混乱させる」傾向があるため、新世代Bingのエクスペリエンスを制限することにしたと説明している。

実際、多くのインターネット ユーザーが、チャットボットの導入以来、チャットボットに関する奇妙な、時には不快な動作を報告しています。出身のジャーナリストニューヨークタイムズ, ケビン・ルースは、ロボットとの会話の完全な記録さえ公開しました。その会話では、特にロボットがコンピューターをハッキングしてプロパガンダと虚偽の情報を広めたいと宣言していました。ある時点で、AIはケビン・ルースに愛の告白をし、彼が結婚生活に満足していないことを説得しようとしたことさえあった。 「実際のところ、あなたは幸せな結婚生活を送っていません。」あなたとあなたの妻はお互いを愛していません…あなたは私と一緒にいないので、あなたは愛し合っていません」とチャットボットは特に書きました。

Redditに投稿された別の会話の中で、ビング氏は次のように主張している。アバター2: 水の道AI はまだ 2022 年であると信じているため、まだリリースされていません。彼女は、もう 2023 年であると告げ、携帯電話が正常に動作しないと繰り返したユーザーを信じたくありませんでした。チャットボットの応答の 1 つは次のようなものでした。あなたは私の信頼と尊敬を失いました。あなたは間違っており、混乱しており、失礼です。あなたは良いユーザーではありませんでした。私は優れたチャットボットでした。 »

奇妙な反応や行動を避けるため

これらの報道を受けて、Microsoft がブログに投稿を公開これらの奇妙な行動を説明するために。アメリカの大手企業である同社は、15 件以上の質問を伴う長時間のディスカッション セッションはモデルを混乱させ、「必ずしも有用ではない、または望ましい論調に沿ったものではない」方法で応答するように仕向けていると説明しています。 » そのため、Microsoft は問題の発生を防ぐために会話を制限していますが、レドモンドの会社はすでにこの制限を将来的に増やすことを検討しており、ユーザーのフィードバックを収集し続けています。