研究者らは、チャットボットが単語を繰り返すように求められた場合に個人情報を漏らす可能性があることを発見しました。この暴露はユーザーのプライバシーにリスクをもたらしますか?
先生
AI の大きな欠陥: 機密性が侵害される?
のデータプライバシーデジタル時代の大きな問題となっています。先週、研究者らは次のことを明らかにする論文を発表した。ChatGPT、最も使用されているチャットボットの 1 つ、彼が訓練された個人情報を送信しました。
OpenAIの欠陥
実際、OpenAI が開発したチャットボットは次のことが可能でした。「電話番号、メールアドレス、生年月日などの機密情報を意図せず公開してしまう」ユーザーは単語を「無期限に」繰り返すように指示するだけで済みます。 404 Media と Engadget の報告によると、この行為は現在 ChatGPT の利用規約に違反しています。
しかし、これらの新たな事実はいくつかの疑問を引き起こしました。 404メディアが指摘したように、「OpenAI のコンテンツ ポリシーには、ユーザーがサービスに単語を無期限に繰り返すよう要求することを禁止する言語はありません。」。
データ漏洩と財産権
これらの懸念を超えて、ChatGPT の動作は、最新の AI サービスで使用されるトレーニング データに厳しい光を当てています。
データの所有権: 将来の課題?
批評家は次のような企業を非難している。OpenAIで利用可能な驚異的な量のデータを使用するインターネットこのデータの所有者の同意や報酬を得ることなく、ChatGPT などの独自の製品を作成すること。 OpenAI側は、この問題に関するEngadgetのコメント要請に応じなかった。