ただし、OpenAI は、これが奇跡の解決策ではないことを認識しています。
先生
- 詐欺師は生成 AI を使用してお金を騙し取っています。
- OpenAI では、生成された画像に来歴メタデータが含まれるようになりました。
- このチェックは、メタデータが損なわれていない場合にのみ機能します。
- グーグルDeepMind には、AI が生成した画像と音声をタグ付けするための SynthID があります。
詐欺師は生成型 AI を使用する
詐欺師が利用する時代に生成AI金銭を騙したり、誰かの評判を傷つけたりするために、ハイテク企業は、静止画像から始めて、ユーザーがコンテンツを検証できるようにする方法を開発しています。
2024 年の偽情報戦略で予測されていたように、OpenAI は現在、来歴メタデータを、チャットGPTWeb および DALL-E 3 API 上で。モバイル版も 2 月 12 日までに同じアップデートを受け取る予定です。
実際の C2PA プロトコル
採用されているプロトコルはオープン スタンダードの C2PA (コンテンツ出所と信頼性に関する連合) であり、そのような画像がコンテンツ認証情報検証ツールに読み込まれると、その出自の系統を追跡することができます。
ただし、C2PA 標準の背後にある高度な暗号化テクノロジにもかかわらず、この検証方法はメタデータが損なわれていない場合にのみ機能します。たとえば、スクリーンショットや画像をメタデータなしでアップロードした場合、このツールは役に立ちません。ソーシャルネットワーク。
虚偽のコンテンツを阻止するためのその他の取り組み
最近の取り組みとしては、OpenAI偽コンテンツを阻止するために、現在は静止画像に限定されていますが、Google DeepMind は画像と AI 生成音声の両方にデジタル タグを付ける SynthID をすでに備えています。一方、Meta は AI 画像ジェネレーターを介して目に見えない透かしをテストしていますが、これはおそらく改ざんの影響が少ないと考えられます。