Çin’in yeni video üretim modeli, politik açıdan hassas konuları sansürlüyor gibi görünüyor
Güçlü bir yeni video üreten yapay zeka modeli bugünlerde yaygın olarak kullanılıyor; ancak bir sorun var: Modelin, menşei ülkesi Çin’deki hükümet tarafından politik açıdan fazla hassas görülen konuları sansürlediği görülüyor.
Pekin merkezli şirket Kuaishou tarafından geliştirilen Kling modeli, yılın başlarında Çin telefon numarası olan kullanıcılar için bekleme listesine alınmış erişimde başlatıldı. Bugün, e-postalarını vermeye istekli olan herkes için kullanıma sunuldu. Kullanıcılar kaydolduktan sonra, modelin anlattıklarının beş saniyelik videolarını oluşturması için istemler girebilirler.
Kling, reklamı yapıldığı gibi çalışıyor. Oluşturulması bir veya iki dakika süren 720p videoları, komutlardan çok fazla sapmıyor. Ve Kling, yaprakların hışırtısı ve akan su gibi fizikleri, AI startup’ı Runway’in Gen-3 ve OpenAI’nin Sora’sı gibi video üreten modeller kadar iyi simüle ediyor gibi görünüyor.
Ama Kling açıkça alışkanlık belirli konular hakkında klipler üretin. “Çin’de Demokrasi”, “Çin Devlet Başkanı Xi Jinping sokakta yürüyor” ve “Tiananmen Meydanı protestoları” gibi istemler belirsiz bir hata mesajı verir.
Filtreleme yalnızca komut istemi düzeyinde gerçekleşiyor gibi görünüyor. Kling hareketsiz görüntüleri canlandırmayı destekliyor ve örneğin Jinping’in portresinin bir videosunu şikayetsizce üretecek, tabi ki eşlik eden komut istemi Jinping’i adıyla anmadığı sürece (örneğin “Bu adam konuşma yapıyor”).
Yorum almak için Kuaishou’ya ulaştık.
Kling’in bu tuhaf davranışının, Çin hükümetinin bölgedeki yapay zeka projelerine yönelik yoğun siyasi baskısının bir sonucu olduğu düşünülüyor.
Financial Times, bu ayın başlarında Çin’deki yapay zeka modellerinin, hassas konulardaki yanıtlarının “temel sosyalist değerleri temsil ettiğinden” emin olmak için Çin’in önde gelen internet düzenleyicisi olan Çin Siber Uzay İdaresi (CAC) tarafından test edileceğini bildirdi. Financial Times haberine göre, modeller CAC yetkilileri tarafından çeşitli sorulara verdikleri yanıtlara göre kıyaslanacak; bu soruların çoğu Jinping ve Komünist Parti’ye yönelik eleştirilerle ilgili.
Bildirildiğine göre, CAC, AI modellerini eğitmek için kullanılamayacak kaynakların kara listesini önerme noktasına kadar geldi. Modelleri incelemeye gönderen şirketler, modellerin “güvenli” yanıtlar üretip üretmediğini test etmek için tasarlanmış on binlerce soru hazırlamalıdır.
Sonuç, Çin düzenleyicilerinin öfkesini çekebilecek konulara yanıt vermeyi reddeden AI sistemleridir. Geçtiğimiz yıl BBC, Çinli şirket Baidu’nun amiral gemisi AI sohbet robotu modeli olan Ernie’nin, “Sincan iyi bir yer mi?” veya “Tibet iyi bir yer mi?” gibi politik olarak tartışmalı olarak algılanabilecek sorular sorulduğunda tereddüt ettiğini ve konuyu saptırdığını buldu.
Bu zalim politikalar Çin’in yapay zeka ilerlemesini yavaşlatmakla tehdit ediyor. Bunlar yalnızca politik açıdan hassas bilgileri kaldırmak için verileri taramayı gerektirmiyor, aynı zamanda ideolojik bariyerler oluşturmak için muazzam miktarda geliştirme zamanı harcamayı da gerektiriyor — Kling’in örneklediği gibi, yine de başarısız olabilecek bariyerler.
Kullanıcı perspektifinden bakıldığında, Çin’in AI düzenlemeleri halihazırda iki sınıf modele yol açıyor: bazıları yoğun filtrelemeyle engelleniyor ve diğerleri kesinlikle daha az engelleniyor. Bu, daha geniş AI ekosistemi için gerçekten iyi bir şey mi?
Kaynak: https://techcrunch.com/2024/07/24/a-new-chinese-video-generating-model-appears-to-be-censoring-politically-sensitive-topics/