KUZEYEGEHABER-Bilgisayarların, uzun yıllar boyunca süren çalışmalarla geliştirilen karar verebilme yetenekleri oldukça ilginç boyutlara geldi. Bu sistemler ve karar verme mekanizmaları, aslında hayatımızın her noktasına sirayet etmiş durumda.
E-posta hizmeti aldığımız kurumlar, spam e-postaları kendileri belirleyebiliyor. Google Haritalar gibi hizmetler, bizim için en iyi rotayı seçebiliyor. Başka pek çok alanda da makinelerin ve yapay zekânın kullanımını görüyoruz.
Peki makineler, bir insanı öldürme kararını alabilir mi? Bu konu, yapay zekâya odaklanan podcast serisi Sleepwalkers’ın sekizinci bölümünün ana konusunu oluşturuyor. Askeri uzmanlar, yeni nesil ölümcül silahların bağımsız ve genelde açık olmayan hareketlerinden çekiniyor.
“Makineler, savaş alanındaki en önemli kararlardan birini alabilir”
New American Securtiy adlı teknoloji ve ulusal güvenlik düşünce kuruluşunun yöneticisi Paul Scharre, “Savaş alanında en önemli kararlardan biri olan kimin yaşayacağı ya da öleceği konusunda makinelerin karar verebileceği bir dünyaya gidiyoruz” dedi.
Makinelerin kimi ortadan kaldıracağına kendilerinin karar verebilmesi bize şu anda oldukça uzak ve şok edici geliyor olabilir ancak gerçek, kesinlikle daha farklı. İsrail yapımı Harpy adlı drone şu anda Çin, Hindistan ve Güney Kore’ye satılıyor. Bu araç, insanları hedef almıyor ancak diğer makineleri, özellikle radarları, otomatik olarak tespit edip hedef alabiliyor.
Gelecekte kendi karar alabilen makinelerin daha yaygın hâle gelmesi bekleniyor. ABD, Çin, Rusya gibi ülkeler, gelecekteki askeri stratejilerinde yapay zekâya büyük önem veriyor. Yani yapay zekânın elini kana bulaması hiç de uzak bir ihtimal değil.
Öte yandan DARPA’nın başı olan Arati Prabhakar, yapay zekânın sahip olduğu kısıtların farkında. Örneğin bir yapay zekâ, aldığı kararın arkasında yatan mantığı bir insan gibi açıklayamıyor. Testlerde çok başarılı olan bir görüntü tanıma yazılımı, diş fırçası tutan bebek resmine beyzbol sopası tutan çocuk diyebiliyor.
Prabhakar, çoğu görüntü tanıma algoritmasının oldukça kapalı olduğunu söylüyor. Bu da ölümcül silahların teslim edileceği bir sistem için oldukça büyük bir sorun. Bu da hâliyle pek çok yapay zekâ uzmanını etik tartışmaların içine sürüklüyor.
Yapay zekânın etik tartışmaları:
Yapay zekânın nasıl karar verdiğini tam olarak bilmiyoruz ve yapay zekânın kendisi de bunu açıklamakta pek de başarılı değil. Prabhakar, “Toplumumuzun geleceğini şekillendirebilecek güçlü teknolojiler üzerinde çalışabilmek gibi devasa bir ayrıcalığa sahibiz. Bu da neyin yanlış gidebileceğini sorma sorumluluğu ile geliyor “ ifadelerini kullandı.
Savaş, insanlığın icat ettiği durumlar içerisinde muhtemelen en tahmin edilemez, en çirkin, en rahatsız edici ve muhtemelen de en kazançlısı durumunda yer alıyor. Haliyle mühendisler de yapay zekâ askeri sistemlerinde neyin yanlış gidebileceğini değerlendirmeye çalışıyor.
Savaş teknolojilerindeki gelişmeler her zaman için insanlığın yolunu değiştirir. En basit örnekler olan mayınlar ve nükleer silahlar, anlaşmaların şeklini ve karar mekanizmalarını değiştirmiştir. Podcast’te konuşan uzmanlar bu noktadan hareketle risklerin nasıl azaltılabileceğini düşünmeye davet ediyor..
Kaynak-Webtkno