PhotoGuard、AI から写真を保護する MIT アルゴリズム

PhotoGuard は、AI から写真を保護する MIT アルゴリズムです。これらの疑問に取り組む時期が来ています。

Dall-E と Stable Diffusion は最初のものにすぎませんでした。のシステム生成AIが急増し、企業は差別化を図ろうとしています。チャットボットは画像の編集および作成機能を獲得しており、Shutterstock や Adob​​e などの大手企業がその先頭に立っています。しかし、これらの AI を活用した機能には、不正操作や著作権の盗難などの危険がないわけではありません。透かしを導入すると効果的ですが、MIT CSAIL が開発した新しい PhotoGuard 技術はさらに進化しています

PhotoGuard は、画像内の特定のピクセルを変更することで機能し、AI が画像が何であるかを理解できなくなります。これらの「障害」は人間の目には見えませんが、機械であれば簡単に読み取ることができます。これらのアーティファクトを導入するエンコード攻撃手法は、ターゲット画像のアルゴリズム モデルの潜在的な表現をターゲットとしています。数学各ピクセルの位置と色を記述する複合体 - AI がそれが何であるかを理解できないようにします。

この高度な「拡散」手法は画像を偽装し、AI の目には別のもののように見えます。システムはターゲット画像を定義し、その画像がそのターゲットに似るように画像内の乱れを最適化します。 AI がこれらの「免疫」画像に対して行おうとするすべての編集は「ターゲット」画像に適用され、非現実的な出力画像が生成されます。

これらの質問に取り組む時期が来ています

「この攻撃により、モデルは(編集対象の)入力画像が別のもの(たとえば灰色の画像)であると信じ込ませます」とこの研究の主著者であるハディ・サルマン氏はEngadgetに説明した。 「拡散攻撃により、拡散モデルはターゲット画像 (グレーまたは完全にランダムな場合があります) に変更を加えることが強制されます。 » この技術は完全ではなく、悪意のある人がデジタル ノイズを追加したり、画像を切り取ったり回転したりすることで、この保護を無効にする可能性があります。

「モデル開発者、データプラットフォーム、ソーシャルメディアそして規制当局は、不正な画像操作に対して堅牢な防御を提供します。このテーマに取り組むことは今日最も重要なことだ」とハディ・サルマン氏は声明で述べた。 「このソリューションに貢献できることをうれしく思いますが、この保護を効果的にするためにやるべきことはまだたくさんあります。これらのモデルを開発している企業は、これらの AI ツールが提供する潜在的な脅威に対する堅牢な保護に取り組む必要があります。 »