ABD Merkez Kuvvetler Komutanlığı (CENTCOM) tarafından İran destekli gruplara karşı yürütülen “Kartal Nöbeti Operasyonu” kapsamında, yapay zeka (AI) aracı Claude 3.5 Sonnet‘in kullanıldığına dair önemli iddialar gündeme geldi. Bu iddialar, eski ABD Başkanı Donald Trump’ın 2020’deki otonom silah sistemleri yasağına rağmen, ABD’nin gelişmiş yapay zeka teknolojilerini sahada aktif olarak kullandığına işaret ediyor. Ancak bu iddialar henüz ABD makamları tarafından resmi olarak doğrulanmış değil.
Bağımsız gazeteci ve SingularityNET CEO’su Ben Goertzel tarafından ortaya atılan bu iddialar, istihbarat kaynaklarına dayandırılıyor. Goertzel’e göre, Anthropic tarafından geliştirilen Claude 3.5 Sonnet, askeri operasyonlarda hedef tespiti, uydu görüntüsü analizi, düşman hareketlerinin tahmini ve drone saldırılarının koordinasyonu gibi kritik görevlerde kullanılmış olabilir. Bu durum, yapay zekanın askeri alandaki potansiyeli ve etik sınırları üzerine yeni bir tartışma başlatıyor.
Gerekçe: İddia Edilen Claude Kullanımı
İran ile Batı arasındaki gerilimin arttığı bir dönemde, CENTCOM’un bölgedeki faaliyetleri büyük önem taşıyor. “Kartal Nöbeti Operasyonu”nun detayları kamuoyu ile sınırlı paylaşılsa da, yapay zekanın bu operasyonda oynadığı iddia edilen rol, teknolojinin savaş alanındaki dönüştürücü etkisini gözler önüne seriyor. Ben Goertzel, iddiasını “istihbarat kaynaklarınca doğrulandığını” belirtse de, ABD Savunma Bakanlığı veya CENTCOM’dan henüz bu yönde bir teyit gelmedi. Goertzel, Claude 3.5 Sonnet’in siber saldırılar ve dezenformasyon kampanyalarında da kullanılmış olabileceğini öne sürüyor.
Yapay Zeka Destekli Askeri Kabiliyetler
- Hedef Tespiti ve Analizi: Geniş veri setlerinden potansiyel hedefleri belirleme ve analiz etme.
- Uydu Görüntüsü Yorumlama: Büyük hacimli uydu verilerini hızla işleyerek önemli bilgiler çıkarma.
- Düşman Hareketi Tahmini: Geçmiş veriler ve mevcut koşullar üzerinden düşman birimlerinin olası hareketlerini öngörme.
- Drone Koordinasyonu: Otonom drone filolarının görevlerini optimize etme ve eşgüdüm sağlama.
- Siber Operasyonlar: Siber güvenlik açıkları bulma ve siber saldırılar düzenleme potansiyeli.
ABD’nin Otonom Silah Politikası
Donald Trump yönetimi, 2020 yılında otonom silah sistemlerinin geliştirilmesi ve kullanılmasına yönelik kısıtlamalar getirmişti. Biden yönetimi de Savunma Bakanlığı Yönergesi 3000.09 ile benzer bir duruş sergiliyor. Bu yönergeye göre, ABD ordusu “insanın ölümcül karar verme sürecinde anlamlı kontrolü” ilkesine bağlı kalıyor. Yani, bir hedefe ölümcül kuvvet uygulama kararı her zaman bir insan operatör tarafından verilmeli.
Ancak, yapay zekanın askeri operasyonlarda “yardımcı” veya “destekleyici” bir rol oynaması, mevcut politikalar kapsamında tamamen yasak değil. Claude 3.5 Sonnet gibi gelişmiş yapay zekaların hedef tespiti ve veri analizi gibi süreçlerde kullanılması, ölümcül kararları doğrudan vermedikleri sürece politikalarla çelişmeyebilir. Tartışma noktası, bu tür destekleyici rollerin ne kadar “otonom” sayılabileceği ve nihai insan kontrolünün ne derece etkin olduğu üzerine odaklanıyor.
Claude 3.5 Sonnet: Yetenekleri ve Rekabet
Anthropic tarafından geliştirilen Claude 3.5 Sonnet, yapay zeka pazarının önde gelen modellerinden biri olarak kabul ediliyor. Özellikle rakibi OpenAI’nin GPT-4o’suna karşı performans, maliyet etkinliği ve hız açısından ciddi bir alternatif sunuyor. Bu model, özellikle karmaşık görevleri anlama, bilgi sentezleme ve yüksek doğrulukla sonuç üretme kapasitesiyle biliniyor.
Askeri uygulamalarda potansiyel kullanım alanları, Claude 3.5 Sonnet’in sadece metin veya görsel analiziyle sınırlı kalmayıp, operasyonel veri akışını işleme ve karar destek sistemleri için değerli içgörüler sunma yeteneğiyle de ilgili. Bu tür gelişmiş yapay zekalar, modern savaşın hızına ve karmaşıklığına ayak uydurmak için kritik araçlar haline gelebilir.
Etik ve Stratejik Tartışmalar
Yapay zekanın askeri alanda kullanımı, beraberinde pek çok etik ve stratejik sorunu getiriyor. Tam otonom silah sistemlerinin “katil robotlar” endişesini tetiklemesi bir yana, yapay zekanın karar destek süreçlerine entegrasyonunun bile hesap verebilirlik, hatalı kararlar ve çatışmaların tırmanma riski gibi konuları gündeme getirmesi kaçınılmaz. Birleşmiş Milletler ve uluslararası toplum, otonom silah sistemlerinin kullanımı konusunda evrensel bir anlaşma sağlamak için çabalarını sürdürüyor.
Trump Yasaklamıştı. Ama ABD’nin İran’ı Claude ile Vurduğu İddia Ediliyor mu?
Bağımsız kaynaklardan gelen iddialara göre evet, ABD’nin İran destekli gruplara yönelik “Kartal Nöbeti Operasyonu”nda Anthropic’in yapay zeka modeli Claude 3.5 Sonnet’i kullandığı öne sürülüyor. Ancak bu iddialar, ABD Savunma Bakanlığı veya CENTCOM tarafından henüz resmi olarak doğrulanmamıştır. Mevcut ABD politikası, ölümcül kararlarda insan kontrolünü zorunlu kılmakla birlikte, yapay zekanın hedef tespiti ve veri analizi gibi destekleyici rollerde kullanılmasına izin vermektedir. Dolayısıyla, bir yasak olmasına rağmen “vurulduğu” iddiası, AI’nin doğrudan ölümcül güç kullanmasından ziyade, operasyonel zekanın artırılması bağlamında değerlendirilmelidir.
