ABD ve siyonist rejime ser tepki: İran’a yönelik saldırılar ve yapay zekâ silahları dünyayı uçuruma sürüklüyor

ABD ve siyonist rejime ser tepki: İran’a yönelik saldırılar ve yapay zekâ silahları dünyayı uçuruma sürüklüyor
Çin Savunma Bakanlığı, ABD’nin yapay zekâyı savaşlarda sınırsız biçimde kullanma girişimlerine sert tepki göstererek Washington yönetimini uluslararası hukuku hiçe saymakla ve dünyayı tehlikeli bir teknolojik felaketin eşiğine sürüklemekle suçladı.

Pekin’de düzenlenen basın toplantısında konuşan Savunma Bakanlığı Sözcüsü Jiang Bin, özellikle Trump yönetiminin Pentagon aracılığıyla yapay zekâ şirketlerini askeri projelere zorladığını belirterek bunun hem etik değerleri hem de uluslararası düzeni tehdit ettiğini söyledi. Jiang, algoritmaların savaş alanında yaşam ve ölüm kararları vermesinin insanlık için son derece tehlikeli bir eşiği temsil ettiğini vurguladı.

“ABD ve işgalci siyonist rejimin İran saldırıları uluslararası hukuku ihlal ediyor”

Çinli yetkili, ABD ve işgalci siyonist rejimin Birleşmiş Milletler Güvenlik Konseyi onayı olmadan İran’a yönelik düzenlediği askeri saldırıların uluslararası hukuku açık şekilde ihlal ettiğini ifade etti. Bu tür müdahalelerin egemen devletlerin güvenliğini ve toprak bütünlüğünü tehdit ettiğini belirten Jiang, Washington ve Tel Aviv’in güç kullanımıyla bölgeyi istikrarsızlığa sürüklediğini dile getirdi.

Jiang “Uluslararası anlaşmazlıkların çözümünde güç kullanımı doğru bir yöntem değildir. Savaşın sürmesi ya da tırmanması Orta Doğu’yu tehlikeli bir uçuruma sürükler ve bölge halklarına daha fazla acı getirir.” dedi.

Pentagon’un yapay zekâ planına tepki

Çin, ABD ordusunun Amerikan teknoloji şirketlerinden geliştirdikleri yapay zekâ sistemlerini sınırsız şekilde askeri kullanıma açmasını talep ettiğine ilişkin haberlerden de derin endişe duyduğunu açıkladı. Jiang’a göre, yapay zekânın savaş kararlarını belirleyecek ölçüde kullanılması hem etik sınırlamaları ortadan kaldırıyor hem de sorumluluğu belirsiz hale getiriyor.

Çinli sözcü “Yapay zekâyı başka ülkelerin egemenliğini ihlal etmek için kullanmak ya da algoritmalara yaşam ve ölüm kararları vermek, savaşlardaki etik sınırları yok eder ve kontrolsüz bir teknolojik felaket riskini doğurur.” ifadelerini kullandı.

“Terminatör benzeri bir gelecek”

Jiang, kontrolsüz askeri yapay zekâ kullanımının insanlık için distopik bir geleceğe kapı aralayabileceğini belirterek, 1984 yapımı “The Terminator” filminde tasvir edilen insanlarla savaşan makineler senaryosuna dikkat çekti.

“Eğer bu yaklaşım devam ederse, bilim kurgu filmlerindeki karanlık senaryoların gerçeğe dönüşmesi ihtimali göz ardı edilemez.” diyen Jiang, savaş teknolojilerinde insan kontrolünün mutlak biçimde korunması gerektiğini vurguladı.

Pentagon ile teknoloji şirketleri arasında kriz

ABD’de Pentagon ile yapay zekâ şirketi Anthropic arasında yaşanan gerilim de tartışmaları büyüttü. Şirketin “Claude” adlı yapay zekâ modelinin toplu gözetleme ve tamamen otonom ölümcül silah sistemlerinde kullanılmasına karşı çıkması üzerine Trump yönetiminin federal kurumlarda şirket teknolojisinin kullanımını durdurduğu bildirildi.

Savunma Bakanlığı ise Anthropic’i ulusal güvenlik açısından tedarik zinciri riski olarak tanımlayarak askeri yüklenicilerin şirketle ticari faaliyet yürütmesini yasakladı. Buna karşın Pentagon’un Elon Musk’ın “Grok” yapay zekâ sistemini gizli askeri projelerde kullanmaya hazır hale getirdiği açıklandı.

“Teknoloji üstünlüğü arayışı dünyayı tehdit ediyor”

Çin Savunma Bakanlığı, ABD’nin yapay zekâ ve diğer yeni teknolojilerde mutlak askeri üstünlük kurma arayışının küresel güvenliği tehlikeye attığını savundu. Pekin yönetimi, yapay zekânın askeri kullanımında insan merkezli yaklaşımın benimsenmesi ve bu alanda Birleşmiş Milletler öncülüğünde uluslararası denetim mekanizmalarının oluşturulması çağrısında bulundu.

Jiang “Yapay zekâ insanlığın ilerlemesine hizmet etmeli, savaşları daha yıkıcı hale getiren bir araç haline getirilmemelidir.” diyerek ABD’nin izlediği politikaların dünyayı daha büyük çatışmalara sürükleyebileceği uyarısında bulundu.

Kaynak:İLKHA

HABERE YORUM KAT
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.