OpenAI, AI tarafından oluşturulan görüntü dedektörünün ne zaman piyasaya sürüleceğini tartışıyor - Dünyadan Güncel Teknoloji Haberleri

OpenAI, AI tarafından oluşturulan görüntü dedektörünün ne zaman piyasaya sürüleceğini tartışıyor - Dünyadan Güncel Teknoloji Haberleri
DALL-E 3 tarafından sıfırdan oluşturulan sanat eserleri elbette bu kategoriye giriyor Kendisi bunu taahhüt etmedi ancak görüntü sınıflandırma aracının bugünkü algısına bağlı olarak bunun OpenAI’nin keşfetmeyi düşüneceği bir yol olduğunu söyledi

Agarwal, OpenAI’nin aynı zamanda yapay zeka tarafından oluşturulan bir görüntünün tam olarak neyin oluşturduğuna dair felsefi soruya takılıp kaldığını ima ediyor Başka bir firma olan Steg ”

Yalnızca OpenAI değil, birçok kuruluş yapay zeka gibi üretken medya için filigran ekleme ve tespit tekniklerini araştırıyor derin sahtekarlıklar çoğalmak “[A general detector] şu anda yaptığımız bir şey değil… Ama nereye bağlı [the classifier tool] giderse, bunu asla yapmayacağımızı söylemiyorum

Sorun şu ki, endüstri henüz tek bir filigran veya tespit standardı etrafında birleşmemiştir

Bu hafta TechCrunch ile bir telefon görüşmesinde konuşan, güvenlik ve politikaya odaklanan OpenAI araştırmacısı Sandhini Agarwal’a göre bu böyle OpenAI, AI tarafından yazılan metin dedektörünü, geniş çapta eleştirilen “düşük doğruluk oranı” nedeniyle çekti [classifier] aletler Sınıflandırma aracının doğruluğu “gerçekten iyi” olsa da – en azından kendi tahminine göre – OpenAI’nin kalite eşiğini karşılamadığını söyledi

“Şu anda bunun nedenlerinden biri [the classifier is] Agarwal, DALL-E 3’e özgü olmasının nedeninin teknik olarak çok daha kolay takip edilebilir bir sorun olması olduğunu söyledi Peki ya DALL-E 3’ten alınan, birkaç tur düzenlemeden geçen, diğer görüntülerle birleştirilen ve ardından birkaç işlem sonrası filtreden geçirilen bir görüntüye ne dersiniz? Daha az net

DALL-E 3 tarafından oluşturulan bir görüntü Öyle olsa bile, filigranların ve hatta dedektörlerin işe yarayacağının garantisi yoktur


OpenAI, bir görüntünün OpenAI’nin üretken yapay zeka sanat modeli olan DALL-E 3 ile yapılıp yapılmadığını belirleyebilecek bir aracın ne zaman yayınlanacağını “oldukça kapsamlı tartıştı ve tartıştı”

OpenAI’nin araç için hedeflenen doğruluğu olağanüstü derecede yüksek görünüyor

DeepMind yakın zamanda AI tarafından oluşturulan görüntüleri insan gözüyle algılanamayacak ancak özel bir dedektör tarafından tespit edilebilecek şekilde işaretlemek için SynthID adında bir özellik önerdi AI, yeniden boyutlandırma ve diğer düzenlemelerde hayatta kalan filigranları uygulamak için bir yapay zeka modeli kullanıyor OpenAI’nin baş teknoloji sorumlusu Mira Murati, söz konusu bu hafta The Wall Street Journal’ın Tech Live konferansında, sınıflandırıcının DALL-E 3 kullanılarak değiştirilmemiş bir fotoğrafın oluşturulup oluşturulmadığını belirlemede “%99” güvenilir olduğu açıklandı Ancak girişim yakın zamanda bir karar vermeye yakın değil

Agarwal, “Bir eserin bir sanatçı tarafından yapılmış olarak mı görüldüğü, yoksa sahte ve yanıltıcı mı olduğu gibi, alabileceği kararların fotoğrafları önemli ölçüde etkileyebileceği göz önüne alındığında, bir şekilde güvenilmez bir araç ortaya koyma sorunu var” dedi 2020 yılında piyasaya sürülen Fransız startup Imatag, SynthID’ye benzer şekilde görüntülerin yeniden boyutlandırılmasından, kırpılmasından, düzenlenmesinden veya sıkıştırılmasından etkilenmediğini iddia ettiği bir filigran aracı sunuyor olmayacak yenilebilir ”

OpenAI’nin isteksizliği, yalnızca OpenAI modellerinden değil, aynı zamanda üçüncü taraf sağlayıcılar tarafından piyasaya sürülen metin oluşturma modellerinden de yapay zeka tarafından oluşturulan metni tespit etmek için tasarlanan önceki genel sınıflandırma aracıyla ilgili tartışmalara bağlı olabilir Resim Kredisi: OpenAI

Agarwal, “Bu noktada, bu görüntünün yapay zeka tarafından üretilmiş bir şey olduğu düşünülmeli mi, düşünülmemeli mi?” dedi



genel-24

Belki de hedef %100’dür; Agarwal söylemedi

Agarwal’a OpenAI’nin görüntü sınıflandırıcısının OpenAI olmayan diğer üretken araçlarla oluşturulan görüntüleri tespit etmeyi destekleyip desteklemeyeceğini sordum

TechCrunch ile paylaşılan bir OpenAI blog yazısı taslağı şu ilginç bilgiyi ortaya çıkardı:

“[The classifier] %95’in üzerinde doğru kalır [an] görüntü, kırpma, yeniden boyutlandırma, JPEG sıkıştırma veya gerçek görüntülerden alınan metin veya kesiklerin, oluşturulan görüntünün küçük bölümleri üzerine bindirilmesi gibi yaygın türde değişikliklere maruz kalmıştır “Şu anda bu sorunun cevabını bulmaya çalışıyoruz ve bu durumdan önemli ölçüde etkilenecek sanatçılardan ve insanlardan haber almayı gerçekten istiyoruz