私たちが知っていると思うかもしれませんが、OpenAI は沈黙を守り、私たちに知らせることを拒否しています。
先生
- OpenAI は、Sora と呼ばれるビデオ生成モデルを発表しました。
- Sora はテキストの指示を写真のようにリアルなビデオに変えることができます。
- ソラの訓練に使用されたデータに関する情報は依然として曖昧です。
- トレーニングデータの出所が違法である可能性について批判が上がっている。
OpenAI が新しいビデオ生成モデルである Sora を発表
L'革新の世界で時を刻み続けます人工知能。この証拠は、OpenAIが最近明らかになったソラ、テキストの指示を写真のようにリアルなシーケンスに変換できる印象的なビデオ生成テンプレートです。
複雑さから真実性へ
Sora のデモンストレーションはそれぞれ、その複雑さと驚くべきものです。精度。単純なテキスト説明に基づいたビデオが、細部にまでこだわった本格的な描写に変換されます。ソラが制作した映像は、プロが撮影した作品と見間違うほどだ。
問われる倫理の影
しかし、このような優れた技術にもかかわらず、大きな疑問が残ります。なぜ OpenAI がこのレベルに達することができたのでしょうか?同協会は、ソラの訓練に使用されたデータの出所についてはかなり慎重だった。 OpenAI からの明確な説明がないため、「著作物」が現れ始めた。
芸術的なぼかしが論争を生む
ブログ投稿では、OpenAIからインスピレーションを得たと単純に宣言した大規模な言語モデルただし、Sora の学習に使用されるデータのソースは指定されていません。この難題は、AI のデータ収集の倫理をめぐる議論を加速させていますが、この議論は OpenAI エコシステムでは新しいものではありません。