Size daha iyi hizmet verebilmek adına sitemizde çerezler bulundurmaktayız. Gizlilik Politikamızı öğrenmek için tıklayınız. Ayrıca kişisel verilerin koruması kanunu kapsamında TESAD ile iletişime geçen her birey, iletişim verilerinin paylaşılmasını ve ilgili TESAD birimlerince kullanılmasını kabul beyan ve taahhüt eder.
yapay
Kaynak: ASPI Strategist

Yapay Zekâ ve Savaşların Geleceği

Yapay zekâ (AI), yaşadığımız dünyayı değiştiriyor. Her alanda işyerlerini yeniden tanımlayacak ve muhtemelen bu on yılın sonunda yaptığımız her şey için önemli etkileri olacak. Akıllı araç navigasyon sistemleri gibi bazı yapay zekâ uygulamaları zaten günlük hayatımızın bir parçası.

Peki, yapay zekâ tam olarak nedir? AI, “makinelerin normalde insan zekâsı gerektiren görevleri yerine getirme yeteneği” olarak tanımlanabilir.

AI aslında birkaç on yıldır ortalıkta. IBM’nin “Deep Blue” adındaki satranç oynayan bilgisayarı, dünya satranç şampiyonu Garry Kasparov’u 1997 yılı gibi eski bir tarihte yendi. Ancak yapay zekanın gelişimi, yapay zekanın artık pratik olduğu gerçek dünya uygulamalarının sayısındaki önemli artışla son yıllarda hızlanıyor.

ABD Savunma Bakanlığı’nın Ortak Yapay Zekâ Merkezi’ne göre, bunun nedenleri daha büyük veri kümeleri, artan bilgi işlem gücü, geliştirilmiş makine öğrenme algoritmaları ve açık kaynak kod kitaplıklarına daha fazla erişim.

Sırayla bunlara bir bakalım.

İlk olarak büyük veri kümelerinden başlayalım. Günümüzde internete bağlı bilgisayarlar, dijital cihazlar ve sensörler; ister metin, sayı, görüntü, ses veya diğer veri dosyaları biçiminde olsun sürekli olarak büyük hacimlerde veri üretmekte ve depolamaktadır.

İkincisi, artan bilgi işlem gücü, yüksek oranda paralelleştirilmiş grafik işleme birimlerinden veya diğer adıyla GPU’lardan geldi. Bu da aynı anda çok sayıda hesaplama yapabilecekleri anlamına geliyor. Büyük paralellik, AI modellerinin eğitimini hızlandırıyor ve bu modelleri operasyonel olarak çalıştırıyor.

Üçüncüsü, daha iyi algoritmalar, makine öğrenimi modellerini daha esnek, daha sağlam ve farklı problem türlerini çözme konusunda daha yetenekli hale getirdi.

Dördüncüsü, açık kaynak kod kitaplıklarına erişim artık kuruluşların en baştan başlamak zorunda kalmadan başkalarının gelişmiş çalışmalarını kullanmalarına ve geliştirmelerine olanak tanıyor.

Savunma alanlarında, otonom platformların gelecekte savunmasız veya yetenek sınırlayıcı bir insanı ister havadan ister su altı sistemleriyle taşımaya gerek kalmadan çalışabileceği anlamına geliyor. Platformlar yine de ahlaki, etik ve yasal nedenlerle insanlar tarafından kontrol edilmelidir, ancak “vurma” kararları basit “evet” veya “hayır” komutlarına indirgenebilir.

Otonom bir platforma sürekli bir bağlantı sağlamanın zor olduğu bir çatışma durumunda bir kontrol sorunu ortaya çıkabilir. Bu koşullarda, örneğin, Sunda Boğazı’ndaki okyanus dibine yerleştirilen bir su altı saldırı aracı, düşman denizaltılarını tespit etmek ve geçerlerse otomatik olarak yok etmek için programlanabilir.

Aynı karar heyeti, yüz veya yürüyüş tanıma yoluyla kilit isyancıları ve teröristleri ortadan kaldırmak için programlanmış uzun ömürlü güneş enerjili insansız hava araçlarına da verilebilir.

Yapay zeka, Avustralya gibi yüksek teknoloji ülkelerinin çok daha az savaş zayiatı olacağı anlamına gelebilir, ancak savaş pilotu veya gizli denizaltı gibi göz kamaştırıcı önemli işler artık mevcut olmayabilir. Bunun yerine, komutanlar ve savaşçılar, robot saldırganları nispeten güvenli yerlerde bilgisayar ekranlarının arkasından kontrol ediyor olabilir.

“Mavi güç riski” faktörü, ister Eş-Şebab gibi düşük teknolojili bir isyancı grup isterse de Çin gibi yüksek teknolojili bir ulus devlet olsun, elbette düşmanın doğasına bağlı olacaktır.

Askeri yapay zekaya yatırım yapmak için, en azından kısa vadede, en pratik alanlar Afganistan gibi teknolojik olarak tartışmasız alanlarla ilgili olanlardır. Eyalete karşı devlet çatışmasında, potansiyel düşmanların AI’da, Çin örneğindeki gibi daha gelişmiş değilse, bizimle eşit düzeyde olduğunu varsaymalı ve AI sistemlerimizi manipüle etmeye veya onları kinetik olarak yok etmeye çalışacak.

En azından şu an için yapay zekâ, çoklu görev söz konusu olduğunda hala insan başarısından yoksundur. Bir asker, bir düşman hedefini belirleyebilir, ona karşı kullanacağı bir silah sistemine karar verebilir, yolunu tahmin edebilir ve onunla çatışabilir. AI şu anda bu basit ilgili görevleri bile yerine getiremiyor.

Potansiyel AI sorunları, önyargılı verilerden ve bağlamın yanlış anlaşılmasından da kaynaklanabilir. AI sistemlerinde korelasyon ve nedensellik arasında ayrım yapma sorunları vardır. (Bir örnek, boğulma ölümleri ile dondurma satışları arasındaki korelasyondur. Bu iki sonuçla ilgili verilerle beslenen bir AI sistemi, daha sıcak havanın bir işlevi oldukları için ikisinin birbiriyle ilişkili olduğunun farkında olmayacaktır. AI, boğulma ölümlerini önlemek için dondurma satışlarını kısıtlamamız gerektiği sonucuna varabilir.)

Ancak AI, bu temel sınırlamaları hızla aşıyor. Özellikle savunma sektöründe 2030 yılına kadar çok daha kapsamlı bir AI yetenekleri yelpazesini görebiliriz.

Bu arada, insanların kendilerinin daha iyi yaptığı görevlere konsantre olmalarını sağlamak için mürettebatlı platformlarda yapay zekâ kullanımında katlanarak bir artış görmemiz muhtemeldir.

Uzun vadede insanları savaş platformlarından çıkarmak, mantıklı ve muhtemel bir ilerlemedir. ABD Hava Kuvvetleri’nin yeni nesil hava üstünlüğü savaş uçağının isteğe bağlı insansız otonom operasyonu içermesi bekleniyor. Ayrıca otonom insansız denizaltı saldırı platformlarının, Avustralya’nın 2030’ların ortalarında ilk saldırı sınıfı denizaltısını almasından çok önce Çin donanmasında hizmete girmesi bekleniyor.

Yazar: Clive Williams

Clive Williams, Avustralya Ulusal Üniversitesi Askeri ve Güvenlik Hukuku Merkezi ile Stratejik ve Savunma Çalışmaları Merkezi’nde misafir profesördür.

Kaynak: ASPI Strategist