Pentagon ile Anthropic Arasında Nükleer Senaryo Krizi: Yapay Zekâ Savaşta Nasıl Kullanılacak?

0
3
ABD Savunma Bakanı Pete Hegseth’

ABD Savunma Bakanlığı (Pentagon) ile yapay zekâ girişimi Anthropic arasında, otonom silahlar ve kitlesel gözetim konusunda yaşanan anlaşmazlık tırmanıyor. Gerilimin merkezinde, ABD’ye yönelik varsayımsal bir kıtalararası balistik füze (ICBM) saldırısı senaryosu yer alıyor.

Savunma yetkililerine göre Pentagon’un teknoloji şefi, geçtiğimiz ay yapılan bir toplantıda şu soruyu gündeme getirdi: ABD’ye bir ICBM fırlatılması durumunda, Anthropic’in geliştirdiği Claude yapay zekâ sistemi füzenin tespiti ve imhasında kullanılabilir mi?

Yetkililer, karar süresinin saniyelerle ölçüldüğü böyle bir senaryoda yapay zekânın hız ve analiz kapasitesinin kritik olabileceğini savunuyor. Ancak Anthropic CEO’su Dario Amodei’nin verdiği iddia edilen yanıt —“Bizi arayabilirsiniz, biz hallederiz”— Pentagon’da rahatsızlık oluşturdu.

Şirket sözcüsü bu ifadeyi yalanlayarak iddiayı “açıkça yanlış” olarak nitelendirdi. Anthropic, Claude’un füze savunması gibi belirli askeri kullanım alanlarına tamamen kapalı olmadığını ancak otonom öldürme sistemleri ve kitlesel iç gözetim konusunda net sınırları bulunduğunu açıkladı.

Pentagon’dan Ültimatom: “Tüm Yasal Amaçlar”

Pentagon, Anthropic’e Cuma günü saat 17.01’e kadar süre vererek Claude’un otonom silah sistemleri ve kitlesel gözetim için kullanımına yönelik itirazlarını geri çekmesini talep etti. Yetkililer, aksi takdirde hükümetin yasal yetkilerini kullanarak şirketi teknolojiyi sağlamaya zorlayabileceğini ve gelecekteki savunma projelerinden men edebileceğini belirtti.

Pentagon Sözcüsü Sean Parnell, X platformunda yaptığı açıklamada bakanlığın kitlesel iç gözetim ya da tamamen otonom silah sistemleri geliştirme niyetinde olmadığını söyledi. Ancak yapay zekânın “tüm yasal amaçlar” doğrultusunda kullanılmasının önünde engel olmaması gerektiğini vurguladı.

Anthropic ise mevcut yapay zekâ sistemlerinin ölümcül otonom silahları güvenli biçimde yönetebilecek kadar olgun olmadığını savunuyor. CEO Amodei, “Bazı dar kullanım alanlarında yapay zekâ demokratik değerleri savunmak yerine zayıflatabilir” diyerek şirketin kırmızı çizgilerinin değişmeyeceğini belirtti.

Washington’daki Güç Mücadelesi

The Washington Post’un haberine göre, Amodei ile Savunma Bakanı Pete Hegseth arasında gerçekleşen yüz yüze görüşme gerilimi daha da artırdı. Taraflar, ABD hükümetinin yapay zekâyı gözetim ve ölümcül operasyonlarda kullanma yetkisinin sınırları konusunda derin görüş ayrılığı yaşıyor.

Savunma Bakanlığı araştırma ve mühendislik müsteşarı Emil Michael’in, teknolojinin kullanımına ilişkin nihai kararın özel şirketlere değil devlete ait olması gerektiğini savunduğu belirtiliyor. Michael, X’te yaptığı paylaşımda Amodei’yi ““Kendini ilah sanmak” ile suçladı.

Buna karşılık Anthropic, çalışanlarının desteğini alan etik çizgisini korumanın hem şirket kültürü hem de planlanan halka arz süreci açısından kritik olduğunu değerlendiriyor.

AI Sektörü ile Pentagon Arasındaki İlişkiyi Şekillendirecek Bir Dönüm Noktası

Anthropic, 2024 sonunda gizli ABD askeri ağlarında çalışmak üzere anlaşma imzalayan ilk büyük yapay zekâ laboratuvarı olmuştu. Şirketin Pentagon’a erişiminde Amazon ve Palantir ile kurduğu ortaklıkların rol oynadığı belirtiliyor.

Ancak Google, OpenAI ve xAI gibi rakiplerin de Pentagon ile benzer anlaşmalar yapması, Anthropic’in avantajını zayıflattı. Yetkililer, bazı firmaların “Yasal sınırlar çerçevesi” politikasını kabul ettiğini aktarıyor.

Uzmanlara göre mevcut kriz, ABD ordusu ile yapay zekâ şirketleri arasındaki ilişkinin geleceğini belirleyebilir. Eğer Pentagon, Savunma Üretim Yasası gibi araçları kullanarak şirketleri teknoloji paylaşımına zorlamaya yönelirse, bu durum sektör genelinde “devlet müdahalesi riski” algısını artırabilir.

Nükleer Kararlarda İnsan Faktörü

Pentagon, nükleer silah kullanımına ilişkin nihai kararlarda insan unsurunun yer almaya devam edeceğini vurguluyor. ABD, Fransa, Birleşik Krallık ve Çin daha önce nükleer silah kararlarında insan denetimi ilkesini teyit etmişti.

Ancak uzmanlar, yapay zekânın hedef belirleme ve tepki süresini kısaltma gibi alanlarda dolaylı etkisinin karar süreçlerini fiilen şekillendirebileceğine dikkat çekiyor. King’s College London’da yapılan bir nükleer savaş simülasyonunda bazı gelişmiş dil modellerinin hızla nükleer tırmanışı destekleyen yanıtlar verdiği belirtilmişti.

Pennsylvania Üniversitesi’nden Michael C. Horowitz, “Pentagon, Anthropic’in güvenilir bir tedarikçi olacağına tam güven duymuyor; Anthropic ise teknolojisinin kötüye kullanılmasından endişe ediyor” değerlendirmesinde bulundu.

Kaynak: Washington Post

CEVAP VER

Please enter your comment!
Please enter your name here