ChatGPTは、単語を何度も繰り返すことは利用規約に違反すると述べています

研究者らは、チャットボットが単語を繰り返すように求められた場合に個人情報を漏らす可能性があることを発見しました。この暴露はユーザーのプライバシーにリスクをもたらしますか?

先生

  • 研究者たちはそれを発見しましたチャットGPT意図せず明らかになった個人データ
  • これは現在、ChatGPT の利用規約に違反しています。
  • OpenAI のコンテンツ ポリシーは、この特定のアクションを禁止していません。
  • ChatGPT は、AI が使用するデータの所有権について疑問を提起しました。

AI の大きな欠陥: 機密性が侵害される?

データプライバシーデジタル時代の大きな問題となっています。先週、研究者らは次のことを明らかにする論文を発表した。ChatGPT、最も使用されているチャットボットの 1 つ、彼が訓練された個人情報を送信しました。

OpenAIの欠陥

実際、OpenAI が開発したチャットボットは次のことが可能でした。「電話番号、メールアドレス、生年月日などの機密情報を意図せず公開してしまう」ユーザーは単語を「無期限に」繰り返すように指示するだけで済みます。 404 Media と Engadget の報告によると、この行為は現在 ChatGPT の利用規約に違反しています。

しかし、これらの新たな事実はいくつかの疑問を引き起こしました。 404メディアが指摘したように、「OpenAI のコンテンツ ポリシーには、ユーザーがサービスに単語を無期限に繰り返すよう要求することを禁止する言語はありません。」

データ漏洩と財産権

これらの懸念を超えて、ChatGPT の動作は、最新の AI サービスで使用されるトレーニング データに厳しい光を当てています。

データの所有権: 将来の課題?

批評家は次のような企業を非難している。OpenAIで利用可能な驚異的な量のデータを使用するインターネットこのデータの所有者の同意や報酬を得ることなく、ChatGPT などの独自の製品を作成すること。 OpenAI側は、この問題に関するEngadgetのコメント要請に応じなかった。