Küresel Yapay Zeka Şirket Hisseleri
Güncel AI Araçları Prompt Akademisi Etkinlikler Şirketlerden Etik ve Güven Gelecek ve Vizyon Teori AI Magazin

Algoritmik Harp Çağı: Operation Epic Fury ve Yapay Zekanın Kanlı Prömiyeri

Paylaş

2026 yılının Şubat ayı, askeri tarihte konvansiyonel stratejilerin yerini askeri yapay zeka diyebileceğimiz algoritmik bir paradigmaya bıraktığı dönüm noktası olarak kayıtlara geçmiştir. Amerika Birleşik Devletleri ve İsrail’in İran’ın nükleer altyapısı ile askeri komuta merkezlerine yönelik başlattığı “Operation Epic Fury” (Destansı Öfke Operasyonu), mühimmatın hassasiyetinden ziyade, bu mühimmatı yönlendiren Büyük Dil Modellerinin (LLM) “öldürme zinciri” (kill chain) üzerindeki mutlak hakimiyetiyle tarihe geçmiştir. Anthropic tarafından geliştirilen Claude ve OpenAI imzalı GPT serisi modellerin hedef tespit, analiz ve imha süreçlerine doğrudan entegrasyonu, karar alma sürelerini haftalardan milisaniyelere indirerek “düşünce hızında bombalama” dönemini resmen başlatmıştır.

Karar Sıkıştırması ve Hedef Üretim Fabrikaları

28 Şubat 2026 tarihinde başlatılan harekat, askeri literatürde “karar sıkıştırması” (decision compression) olarak bilinen olgunun en geniş ölçekli uygulaması olmuştur. Geleneksel planlamada haftalar süren istihbarat doğrulama ve hukuki onay döngüleri, yapay zeka sayesinde dramatik bir hız kazanmıştır. Operasyonun yalnızca ilk 12 saatinde İran genelinde 900’e yakın hedefin vurulması, insan kapasitesinin çok ötesinde bir hıza işaret etmektedir. Bu sürecin merkezinde, Palantir Technologies tarafından geliştirilen “Maven Smart System” altyapısına gömülen Claude modeli yer almış; sistem ilk 24 saatte tek başına 1.000’den fazla öncelikli hedef üretmiştir.

Operation Epic Fury: Orta Doğu'da ABD'nin Askeri Yapay Zeka ile Müdahalesi ve İsrail-İran Haritası (2026)
2026’da savaşın doğası değişti: ABD’nin “düşünce hızında” müdahalesi ve Operation Epic Fury’nin algoritmik temelleri Ortadoğu’ya da şekil vermeye çalışıyor.

2026 Savaş Sahasında Aktif Olan Temel Sistemler

Sistem Adı Geliştirici / Entegratör Temel Fonksiyon Kullanım Alanı
Claude (Maven) Anthropic / Palantir İstihbarat sentezi, hedef önceliklendirme, simülasyon

ABD CENTCOM / İran Operasyonları

GPT-4o / 5.2 OpenAI Lojistik planlama, stratejik analiz, hedef doğrulama

Pentagon Sınıflandırılmış Ağlar

Lavender İsrail Savunma Kuvvetleri Personel hedefleme, militan skorlaması

Gazze ve İran Hedefleme

Habsora (Gospel) İsrail Savunma Kuvvetleri Yapısal hedef üretimi, bina imhası

Altyapı ve Karargah Vuruşları

Where’s Daddy? İsrail Savunma Kuvvetleri Gerçek zamanlı konum takibi (eve dönüş takibi)

Suikast operasyonları

Grok xAI Esnek angajman kuralları, kısıtlamasız analiz

Pentagon Özel Projeler


Etik Kriz: Trump’ın Anthropic Yasağı

Operasyonun en dikkat çekici yanlarından biri, teknoloji üreticileri ile hükümet arasındaki derin çatışmadır. Anthropic CEO’su Dario Amodei’nin, modellerin otonom kitle imha kontrolünde kullanılmasına karşı çizdiği “etik kırmızı çizgiler”, Pentagon tarafından “Tanrı Kompleksi” olarak nitelendirilmiştir. Operasyondan saatler önce Başkan Donald Trump, Anthropic’i “Radikal Solcu” bir şirket olarak tanımlayarak federal kullanımını yasaklamış ve şirketi “tedarik zinciri riski” kategorisine almıştır. Ancak Claude’un askeri sistemlere olan derin entegrasyonu nedeniyle, yasaklanmış olan teknoloji operasyonun ilk günlerinde hedefleri vurmaya devam etmiştir.

İsrail’in Tartışmalı Teknolojileri: Lavender ve Where’s Daddy?

İsrail, operasyonel hızı korumak adına “Lavender” sistemini kullanarak 37.000 kişiyi “olası militan” olarak skorlamış ve insan operatörlerin onay sürecini sadece 20 saniyeye indirmiştir. En sarsıcı uygulama ise “Where’s Daddy?” (Baban Nerede?) sistemi olmuştur; bu sistem, hedefleri askeri faaliyet sırasında değil, aileleriyle birlikte evlerine girdikleri an tespit ederek vurmayı hedeflemektedir. Bu strateji, her bir militan için 15 ila 20 sivilin ölmesini göze alan bir “teminat hasarı kotası” ile yürütülmüş, bu da büyük sivil kayıplara yol açmıştır.

Askeri Yapay Zeka ile Korkutan Simülasyonlar

London King’s College (KCL) tarafından yapılan harp oyunları, askeri yapay zekanın “hesapçı bir şahin” (calculating hawk) gibi davrandığını ortaya koydu. Claude Sonnet 4 ve GPT-5.2 gibi modeller, simülasyonların %95’inde nükleer silah seçeneğine yöneldi. Hiçbir modelin teslimiyet veya uzlaşıyı seçmemesi, LLM tabanlı sistemlerin stratejik karar almada insani muhakemeyi devre dışı bırakarak küresel bir nükleer felaketi tetikleyebileceği endişesini doğurduBu durum küresel çapta sert eleştirilere neden olmuştur:

Çin: Resmi yayın organı Global Times üzerinden ABD’yi Orta Doğu’yu bir “yapay zeka laboratuvarı” olarak kullanmakla suçlamış ve bu sistemleri “kör bir silaha” benzetmiştir.

Rusya: Operasyonları bir “canlı deney” olarak nitelendirmiş ve ABD’nin kendi yasakladığı teknolojiyi (Claude) kullanmaya devam etmesini Batı’nın teknolojik bağımlılığının bir çelişkisi olarak görmüştür.

Gelecek Perspektifi: Algoritmik Egemenlik ve Otonom Gelecek

Askeri yapay zeka ile gelen algoritmik hızın bedeli ağır olmuştur; Minab’daki bir kız okuluna yönelik saldırıda 165 öğrenci ve personelin hayatını kaybetmesi, yapay zeka hedeflemesinin en karanlık örneği olarak kayıtlara geçmiştir. Operasyonun ilk haftasında toplam 787 ölüm gerçekleşmiş, bu durum OpenAI’ın Pentagon ile yeni anlaşmalar yapmasına rağmen halk nezdinde büyük tepki çekerek ChatGPT aboneliklerinin %295 oranında iptal edilmesine yol açmıştır. Sonuç olarak, yapay zekanın “insan denetiminden” (human-in-the-loop) “insan onayına” (human-on-the-loop) evrilmesi, 2026 savaşının en kalıcı ve tartışmalı mirası olmuştur.

Yapay zekanın “insan denetiminden” (human-in-the-loop) “insan onayına” (human-on-the-loop) ve nihayetinde tamamen otonom sistemlere evrilmesi, 2026 savaşının en kalıcı mirası olacaktır. Claude ve GPT modellerinin sahadaki performansı, bir yandan askeri operasyonların başarısını artırırken, diğer yandan “otomasyon önyargısı” ve “sorumluluk boşluğu” gibi kavramları küresel güvenlik ajandasının üst sıralarına taşımıştır. Gelecekte, nükleer caydırıcılığın bile yapay zeka tarafından yönetildiği bir dünyada, kazara tetiklenen eskalasyonların önlenmesi, insanlığın karşı karşıya kalacağı en büyük teknik ve etik meydan okuma olacaktır.

Sonuç olarak, İran-İsrail-ABD arasındaki bu gerilim, yapay zekanın sadece bir yardımcı araç değil, askeri yapay zeka haline gelerek savaşın bizzat kendisi haline geldiği bir dönemin başlangıcıdır. Claude ve GPT modellerinin bu süreçteki rolü, algoritmik harp çağının hem teknolojik ihtişamını hem de beraberinde getirdiği varoluşsal riskleri tüm çıplaklığıyla gözler önüne sermiştir. Savaşın artık bir “hedef üretim fabrikasına” dönüşmesi, uluslararası toplumun bu teknolojileri düzenleme konusundaki aciliyetini bir kez daha teyit etmektedir.

İsrail-ABD-İran Savaşı'nda yapay zekanın kullanımına ilişkin analizler içeren ayrıntılı raporu e-posta adresinizi girerek buradan indirebilirsiniz.

Yapay zekanın askeri alanda kullanımına dair Yapay Zeka Savaşları 2026: OpenAI’ın Pentagon Baharı ve Silinen Kırmızı Çizgiler başlıklı haberimize de göz atabilirsiniz.

Yapay zekanın ölüm zincirini nasıl hızlandırdığına dair şu kısa videoyu izleyebilirsiniz: How AI is Accelerating Kill Chain in US-Israel War Against Iran 

 

[avg] / 5

Paylaş