「未来の写真は、本物か偽物か!?」OpenAIが真偽確認ツールを模索。
1. OpenAIが取り組むAI画像の信頼性問題 OpenAIは、自社のAIアートモデル、DALL-E 3によって生成された画像の真偽を見分けるツールのリリースを模索しています。その一方で、このツールの品質基準はまだ満たされておらず、その信頼性に関する疑念も存在します。AIが生成する画像の根本的な要素やその背後にある哲学的問題もOpenAIの意思決定プロセスにおける大きな課題となっています。
2. 高い信頼性を目指すOpenAIの取り組み OpenAIのCTO、Mira Murati氏は、未変更の写真がDALL-E 3によって生成されたものか否かを判断するこの分類ツールには99%の信頼性があると語っています。そして、その目標精度は最終的に100%に近づけることを目指しているかもしれないとのこと。しかしこの点について、研究者のSandhini Agarwal氏はまだ確認していません。
3. 一般的な変更にも強い分類器 このツールは、画像に対してトリミング、サイズ変更、圧縮などの一般的な変更が加えられた場合、または元の画像にテキストや切り抜きが追加された場合でも、95%以上の高い精度を保持するとのこと。これは、ツールの頑強性と変更に対する対応力を示す証拠です。
4. 業界の他のプレイヤーとの比較 DeepMindやImatag、Steg.AIなど、他の組織も生成メディアの透かしや検出技術の研究に注力しています。しかし、この分野に関して業界が一つの基準に到達していないため、これらの技術の真の有効性に関する疑問が依然として浮上しています。
OpenAIの新しいツールがどれだけの信頼性と精度を持つのか、そしてその他の組織の技術とどう比較されるのか、引き続き注目していきましょう。
出典:https://techcrunch.com/2023/10/19/openai-debates-when-to-release-its-ai-generated-image-detector/