2026 yılının Şubat ayı, askeri tarihte konvansiyonel stratejilerin yerini askeri yapay zeka diyebileceğimiz algoritmik bir paradigmaya bıraktığı dönüm noktası olarak kayıtlara geçmiştir. Amerika Birleşik Devletleri ve İsrail’in İran’ın nükleer altyapısı ile askeri komuta merkezlerine yönelik başlattığı “Operation Epic Fury” (Destansı Öfke Operasyonu), mühimmatın hassasiyetinden ziyade, bu mühimmatı yönlendiren Büyük Dil Modellerinin (LLM) “öldürme zinciri” (kill chain) üzerindeki mutlak hakimiyetiyle tarihe geçmiştir. Anthropic tarafından geliştirilen Claude ve OpenAI imzalı GPT serisi modellerin hedef tespit, analiz ve imha süreçlerine doğrudan entegrasyonu, karar alma sürelerini haftalardan milisaniyelere indirerek “düşünce hızında bombalama” dönemini resmen başlatmıştır.
Karar Sıkıştırması ve Hedef Üretim Fabrikaları
28 Şubat 2026 tarihinde başlatılan harekat, askeri literatürde “karar sıkıştırması” (decision compression) olarak bilinen olgunun en geniş ölçekli uygulaması olmuştur. Geleneksel planlamada haftalar süren istihbarat doğrulama ve hukuki onay döngüleri, yapay zeka sayesinde dramatik bir hız kazanmıştır. Operasyonun yalnızca ilk 12 saatinde İran genelinde 900’e yakın hedefin vurulması, insan kapasitesinin çok ötesinde bir hıza işaret etmektedir. Bu sürecin merkezinde, Palantir Technologies tarafından geliştirilen “Maven Smart System” altyapısına gömülen Claude modeli yer almış; sistem ilk 24 saatte tek başına 1.000’den fazla öncelikli hedef üretmiştir.

2026 Savaş Sahasında Aktif Olan Temel Sistemler
| Sistem Adı | Geliştirici / Entegratör | Temel Fonksiyon | Kullanım Alanı | |
| Claude (Maven) | Anthropic / Palantir | İstihbarat sentezi, hedef önceliklendirme, simülasyon |
ABD CENTCOM / İran Operasyonları |
|
| GPT-4o / 5.2 | OpenAI | Lojistik planlama, stratejik analiz, hedef doğrulama |
Pentagon Sınıflandırılmış Ağlar |
|
| Lavender | İsrail Savunma Kuvvetleri | Personel hedefleme, militan skorlaması |
Gazze ve İran Hedefleme |
|
| Habsora (Gospel) | İsrail Savunma Kuvvetleri | Yapısal hedef üretimi, bina imhası |
Altyapı ve Karargah Vuruşları |
|
| Where’s Daddy? | İsrail Savunma Kuvvetleri | Gerçek zamanlı konum takibi (eve dönüş takibi) |
Suikast operasyonları |
|
| Grok | xAI | Esnek angajman kuralları, kısıtlamasız analiz |
Pentagon Özel Projeler |
Etik Kriz: Trump’ın Anthropic Yasağı
Operasyonun en dikkat çekici yanlarından biri, teknoloji üreticileri ile hükümet arasındaki derin çatışmadır. Anthropic CEO’su Dario Amodei’nin, modellerin otonom kitle imha kontrolünde kullanılmasına karşı çizdiği “etik kırmızı çizgiler”, Pentagon tarafından “Tanrı Kompleksi” olarak nitelendirilmiştir. Operasyondan saatler önce Başkan Donald Trump, Anthropic’i “Radikal Solcu” bir şirket olarak tanımlayarak federal kullanımını yasaklamış ve şirketi “tedarik zinciri riski” kategorisine almıştır. Ancak Claude’un askeri sistemlere olan derin entegrasyonu nedeniyle, yasaklanmış olan teknoloji operasyonun ilk günlerinde hedefleri vurmaya devam etmiştir.
İsrail’in Tartışmalı Teknolojileri: Lavender ve Where’s Daddy?
İsrail, operasyonel hızı korumak adına “Lavender” sistemini kullanarak 37.000 kişiyi “olası militan” olarak skorlamış ve insan operatörlerin onay sürecini sadece 20 saniyeye indirmiştir. En sarsıcı uygulama ise “Where’s Daddy?” (Baban Nerede?) sistemi olmuştur; bu sistem, hedefleri askeri faaliyet sırasında değil, aileleriyle birlikte evlerine girdikleri an tespit ederek vurmayı hedeflemektedir. Bu strateji, her bir militan için 15 ila 20 sivilin ölmesini göze alan bir “teminat hasarı kotası” ile yürütülmüş, bu da büyük sivil kayıplara yol açmıştır.
Askeri Yapay Zeka ile Korkutan Simülasyonlar
London King’s College (KCL) tarafından yapılan harp oyunları, askeri yapay zekanın “hesapçı bir şahin” (calculating hawk) gibi davrandığını ortaya koydu. Claude Sonnet 4 ve GPT-5.2 gibi modeller, simülasyonların %95’inde nükleer silah seçeneğine yöneldi. Hiçbir modelin teslimiyet veya uzlaşıyı seçmemesi, LLM tabanlı sistemlerin stratejik karar almada insani muhakemeyi devre dışı bırakarak küresel bir nükleer felaketi tetikleyebileceği endişesini doğurdu. Bu durum küresel çapta sert eleştirilere neden olmuştur:
Çin: Resmi yayın organı Global Times üzerinden ABD’yi Orta Doğu’yu bir “yapay zeka laboratuvarı” olarak kullanmakla suçlamış ve bu sistemleri “kör bir silaha” benzetmiştir.
Rusya: Operasyonları bir “canlı deney” olarak nitelendirmiş ve ABD’nin kendi yasakladığı teknolojiyi (Claude) kullanmaya devam etmesini Batı’nın teknolojik bağımlılığının bir çelişkisi olarak görmüştür.
Gelecek Perspektifi: Algoritmik Egemenlik ve Otonom Gelecek
Askeri yapay zeka ile gelen algoritmik hızın bedeli ağır olmuştur; Minab’daki bir kız okuluna yönelik saldırıda 165 öğrenci ve personelin hayatını kaybetmesi, yapay zeka hedeflemesinin en karanlık örneği olarak kayıtlara geçmiştir. Operasyonun ilk haftasında toplam 787 ölüm gerçekleşmiş, bu durum OpenAI’ın Pentagon ile yeni anlaşmalar yapmasına rağmen halk nezdinde büyük tepki çekerek ChatGPT aboneliklerinin %295 oranında iptal edilmesine yol açmıştır. Sonuç olarak, yapay zekanın “insan denetiminden” (human-in-the-loop) “insan onayına” (human-on-the-loop) evrilmesi, 2026 savaşının en kalıcı ve tartışmalı mirası olmuştur.
Yapay zekanın “insan denetiminden” (human-in-the-loop) “insan onayına” (human-on-the-loop) ve nihayetinde tamamen otonom sistemlere evrilmesi, 2026 savaşının en kalıcı mirası olacaktır. Claude ve GPT modellerinin sahadaki performansı, bir yandan askeri operasyonların başarısını artırırken, diğer yandan “otomasyon önyargısı” ve “sorumluluk boşluğu” gibi kavramları küresel güvenlik ajandasının üst sıralarına taşımıştır. Gelecekte, nükleer caydırıcılığın bile yapay zeka tarafından yönetildiği bir dünyada, kazara tetiklenen eskalasyonların önlenmesi, insanlığın karşı karşıya kalacağı en büyük teknik ve etik meydan okuma olacaktır.
Sonuç olarak, İran-İsrail-ABD arasındaki bu gerilim, yapay zekanın sadece bir yardımcı araç değil, askeri yapay zeka haline gelerek savaşın bizzat kendisi haline geldiği bir dönemin başlangıcıdır. Claude ve GPT modellerinin bu süreçteki rolü, algoritmik harp çağının hem teknolojik ihtişamını hem de beraberinde getirdiği varoluşsal riskleri tüm çıplaklığıyla gözler önüne sermiştir. Savaşın artık bir “hedef üretim fabrikasına” dönüşmesi, uluslararası toplumun bu teknolojileri düzenleme konusundaki aciliyetini bir kez daha teyit etmektedir.
İsrail-ABD-İran Savaşı'nda yapay zekanın kullanımına ilişkin analizler içeren ayrıntılı raporu e-posta adresinizi girerek buradan indirebilirsiniz.
Yapay zekanın askeri alanda kullanımına dair Yapay Zeka Savaşları 2026: OpenAI’ın Pentagon Baharı ve Silinen Kırmızı Çizgiler başlıklı haberimize de göz atabilirsiniz.
Yapay zekanın ölüm zincirini nasıl hızlandırdığına dair şu kısa videoyu izleyebilirsiniz: How AI is Accelerating Kill Chain in US-Israel War Against Iran