ABD’li yapay zeka şirketi Anthropic ile Pentagon arasındaki anlaşmazlık, şirketin geliştirdiği Claude yapay zeka modelinin kullanımı konusundaki belirsizlikle devam ediyor. Wall Street Journal’ın (WSJ) haberine göre, Anthropic’in CEO’su Sam Altman, şirket çalışanlarına gönderdiği bir notta, Pentagon ile yapılan sözleşmelerin geleceği hakkında önemli ifadeler kullandı.
Altman, notta, “Modellerimizin gizli ortamlarda kullandırılmasına izin verecek ve ilkelerimizle uyumlu olacak bir anlaşma yapıp yapamayacağımızı göreceğiz. Sözleşmenin, örneğin iç gözetim ve otonom saldırı silahları gibi kullanımlar hariç yasa dışı veya bulut tabanlı uygulamalara uygun olmayan her türlü kullanımı kapsamasını talep ediyoruz.” ifadelerini kullandı. Bu ifadeler, Anthropic’in yapay zeka modelinin kullanım alanları konusunda belirli kısıtlamalar getirme niyetini ortaya koyuyor. Kaynaklara göre, henüz bir anlaşma sağlanamadı ve görüşmelerin başarısızlıkla sonuçlanma ihtimali bulunuyor.
Altman, notunda hükümetin özel bir şirketin ulusal güvenlik konularındaki kontrolü konusundaki endişelerini anladığını belirtmekle birlikte, şirketin pozisyonunu desteklediğini vurguladı. “Bu anlaşmazlığın yapay zekanın nasıl kullanılacağıyla ilgili değil, kontrolle ilgili olduğuna inanıyoruz. Şirketlerin çok fazla girdi ve etkiye sahip olabileceği doğru olsa da, özel bir ABD şirketinin demokratik olarak seçilmiş ABD hükümetinden daha güçlü olamayacağına inanıyoruz. Demokrasi karmaşık bir şeydir, ancak biz ona bağlıyız,” şeklinde konuştu.
Bu durum, yapay zeka teknolojilerinin askeri alanda kullanımı ve özel şirketlerin bu alandaki rolü üzerine önemli bir tartışmayı tetikliyor. ABD ordusunun, istihbarat çalışmaları, silah geliştirme faaliyetleri ve askeri operasyonların yürütülmesinde Anthropic’in Claude modelini kullandığı biliniyor. Ancak Pentagon, Anthropic’in yapay zekasını istediği şekilde kullanma konusunda sıkıntılar yaşıyor.
ABD Savunma Bakanı Pete Hegseth, 24 Şubat’ta Anthropic’e bir ültimatom vererek, şirketin 27 Şubat’a kadar Pentagon’un yapay zekayı kullanmasına izin vermemesi halinde hükümetle olan sözleşmelerini kaybedebileceğini bildirmişti. Bazı yetkililer, Anthropic’i “tedarik zinciri riski” olarak nitelendirirken, ordunun şirketin ürünlerini daha geniş çapta kullanmasını sağlayacak bir yasa çıkarılabileceği uyarısında bulundu. Anthropic’in, Claude modelini “tüm yasal askeri amaçlar” için kullanıma açmayı reddetmesi ve askeri kullanıma dair güvenlik endişeleri, Pentagon ile anlaşmazlıkların temelini oluşturuyor. OpenAI’nin CEO’su Altman, bu konuda sektör için bir çözüm bulmayı umduğunu belirtti.
