Agarwal, OpenAI’nin aynı zamanda yapay zeka tarafından oluşturulan bir görüntünün tam olarak neyin oluşturduğuna dair felsefi soruya takılıp kaldığını ima ediyor Başka bir firma olan Steg ”
Yalnızca OpenAI değil, birçok kuruluş yapay zeka gibi üretken medya için filigran ekleme ve tespit tekniklerini araştırıyor derin sahtekarlıklar çoğalmak “[A general detector] şu anda yaptığımız bir şey değil… Ama nereye bağlı [the classifier tool] giderse, bunu asla yapmayacağımızı söylemiyorum
Sorun şu ki, endüstri henüz tek bir filigran veya tespit standardı etrafında birleşmemiştir
Bu hafta TechCrunch ile bir telefon görüşmesinde konuşan, güvenlik ve politikaya odaklanan OpenAI araştırmacısı Sandhini Agarwal’a göre bu böyle OpenAI, AI tarafından yazılan metin dedektörünü, geniş çapta eleştirilen “düşük doğruluk oranı” nedeniyle çekti [classifier] aletler Sınıflandırma aracının doğruluğu “gerçekten iyi” olsa da – en azından kendi tahminine göre – OpenAI’nin kalite eşiğini karşılamadığını söyledi
“Şu anda bunun nedenlerinden biri [the classifier is] Agarwal, DALL-E 3’e özgü olmasının nedeninin teknik olarak çok daha kolay takip edilebilir bir sorun olması olduğunu söyledi Peki ya DALL-E 3’ten alınan, birkaç tur düzenlemeden geçen, diğer görüntülerle birleştirilen ve ardından birkaç işlem sonrası filtreden geçirilen bir görüntüye ne dersiniz? Daha az net
OpenAI, bir görüntünün OpenAI’nin üretken yapay zeka sanat modeli olan DALL-E 3 ile yapılıp yapılmadığını belirleyebilecek bir aracın ne zaman yayınlanacağını “oldukça kapsamlı tartıştı ve tartıştı”
OpenAI’nin araç için hedeflenen doğruluğu olağanüstü derecede yüksek görünüyor
DeepMind yakın zamanda AI tarafından oluşturulan görüntüleri insan gözüyle algılanamayacak ancak özel bir dedektör tarafından tespit edilebilecek şekilde işaretlemek için SynthID adında bir özellik önerdi AI, yeniden boyutlandırma ve diğer düzenlemelerde hayatta kalan filigranları uygulamak için bir yapay zeka modeli kullanıyor OpenAI’nin baş teknoloji sorumlusu Mira Murati, söz konusu bu hafta The Wall Street Journal’ın Tech Live konferansında, sınıflandırıcının DALL-E 3 kullanılarak değiştirilmemiş bir fotoğrafın oluşturulup oluşturulmadığını belirlemede “%99” güvenilir olduğu açıklandı Ancak girişim yakın zamanda bir karar vermeye yakın değil
Agarwal, “Bir eserin bir sanatçı tarafından yapılmış olarak mı görüldüğü, yoksa sahte ve yanıltıcı mı olduğu gibi, alabileceği kararların fotoğrafları önemli ölçüde etkileyebileceği göz önüne alındığında, bir şekilde güvenilmez bir araç ortaya koyma sorunu var” dedi 2020 yılında piyasaya sürülen Fransız startup Imatag, SynthID’ye benzer şekilde görüntülerin yeniden boyutlandırılmasından, kırpılmasından, düzenlenmesinden veya sıkıştırılmasından etkilenmediğini iddia ettiği bir filigran aracı sunuyor olmayacak yenilebilir ”
OpenAI’nin isteksizliği, yalnızca OpenAI modellerinden değil, aynı zamanda üçüncü taraf sağlayıcılar tarafından piyasaya sürülen metin oluşturma modellerinden de yapay zeka tarafından oluşturulan metni tespit etmek için tasarlanan önceki genel sınıflandırma aracıyla ilgili tartışmalara bağlı olabilir Resim Kredisi: OpenAI
Agarwal, “Bu noktada, bu görüntünün yapay zeka tarafından üretilmiş bir şey olduğu düşünülmeli mi, düşünülmemeli mi?” dedi
genel-24
Agarwal’a OpenAI’nin görüntü sınıflandırıcısının OpenAI olmayan diğer üretken araçlarla oluşturulan görüntüleri tespit etmeyi destekleyip desteklemeyeceğini sordum
TechCrunch ile paylaşılan bir OpenAI blog yazısı taslağı şu ilginç bilgiyi ortaya çıkardı:
“[The classifier] %95’in üzerinde doğru kalır [an] görüntü, kırpma, yeniden boyutlandırma, JPEG sıkıştırma veya gerçek görüntülerden alınan metin veya kesiklerin, oluşturulan görüntünün küçük bölümleri üzerine bindirilmesi gibi yaygın türde değişikliklere maruz kalmıştır “Şu anda bu sorunun cevabını bulmaya çalışıyoruz ve bu durumdan önemli ölçüde etkilenecek sanatçılardan ve insanlardan haber almayı gerçekten istiyoruz