6 Ekim 2018 Cumartesi

SA6934/SD1154: Yapay Zeka'nın Askeri Uygulamalarının Vaatleri ve Tehlikeleri

Sonsuz Ark'ın Notu:
Aşağıda çevirisini yayınladığımız analiz Pennsylvania Üniversitesi siyaset bilimi profesörü Michael C. Horowitz (Mchorowitz)'e attir ve Yapay Zeka (AI)'nın geleceğine dair kaygılardan ve Yapay Zeka'nın sağladığı imkanlardan bahsetmektedir. Görülmektedir ki; Türkiye, Yapay Zeka ile ilgili çalışmalarda bir Durum-Tutum Belgesi hazırlamalı ve stratejik planlamalar yapmak zorundadır. Konunun ciddiyeti gecikmeyi ihmal ve zaaf olarak değerlendirmeyi gerektirmektedir.
Seçkin Deniz, 06.10.2018

The promise and peril of military applications of artificial intelligence

"Yapay Zeka (AI)'nın - lojistik ve savaş alanı planlamasından insan kararlarına kadar her şeyin hızını ve doğruluğunu artırma becerisi de dahil olmak üzere - vaat ettiği araştırma ve geliştirmeyi hızlandırmak dünyanın dört bir yanındaki askeri araçları tahrik ediyor. İşte nedeni bu."

Yapay zeka (AI) ulusal güvenlik alanında bir an yaşıyor. Kamuoyu, askeri bağlamda yapay zekâ kavramını Terminatör imtiyazının insansı robotlarıyla eşit hâle getirse de, yapay zekanın ulusal güvenlik sonuçları ile ilgili tartışmalarda önemli bir artış olmuştur. 


Bu tartışmalar akademiyi, iş dünyasını ve hükümetleri, Oxford filozofu Nick Bostrom’un insanlık için varoluşsal risk konusundaki endişelerini, Tesla kurucusu Elon Musk’un Vladimir Putin’in AI’daki liderliğinin 21. yüzyılda küresel iktidar için gerekli olacağını açıklaması ile yapay zekanın 3. Dünya Savaşını tetikleyebileceği endişesi dahil bir çok alanı kapsamaktadır.

Bu gerçekten, özellikle devrimci değişim söyleminin ötesine geçtiğinizde ve yapay zekanın askeri uygulamalara ilişkin gerçek dünyadaki sonuçlarını düşündüğümüzde ne anlama geliyor? Yapay zeka bir silah değildir. Bunun yerine, askeri bir bakış açısıyla, yapay zeka, elektrik gibi bir sağımcıdır ve yanmalı motordur. Bu nedenle, yapay zekanın askeri güç ve uluslararası çatışmaya olan etkisi, askeri kuvvetler ve politika yapıcılar için AI'nin belirli uygulamalarına bağlı olacaktır. Aşağıdaki fikirler, yapay zekânın “ne” olduğunu değerlendirmek için prensipler ve  yapay zekanın geçmişteki teknolojik değişimlerle nasıl karşılaştırıldığı, hangi askeri kuvvetlerin yapay zekâyı kullanabileceği ile ilgili olası kısıtlamalar,  AI askeri uygulamalarının uluslararası politikaya olan etkisi ve yapay zekanın askeri sonuçları hakkında düşünmek için temel konulardır. 

Yapay Zeka (AI)'nın - lojistik ve savaş alanı planlamasından insan kararlarına kadar her şeyin hızını ve doğruluğunu artırma becerisi de dahil olmak üzere - vaat ettiği araştırma ve geliştirmeyi hızlandırmak dünyanın dört bir yanındaki askeri araçları tahrik ediyor. ABD ordusu için, AI, askeri üstünlüğünü sürdürmek için yeni bir yol sunuyor ve ABD askerlerinin masraflarını ve risklerini potansiyel olarak azaltıyor. Diğerleri, özellikle Rusya ve Çin için, AI potansiyel olarak daha değerli bir şey sunuyor; ABD'nin askeri üstünlüğünü bozma yeteneği. 


AI liderliğinde ulusal rekabet, her şeyden çok, ekonomik rekabet ve liderlik meselesidir, ancak potansiyel askeri etki de açıktır. Yapay zeka araştırmalarının hızı ve seyri konusunda önemli belirsizlikler vardır. Yani, AI vaadinin gerçekliğinden daha fazla hipe dönüşmesi her zaman mümkündür. Dahası, güvenlik ve güvenilirlik kaygıları, militanların AI'yı kullanmayı seçtikleri yolları sınırlayabilir.

Yapay zeka hangi teknolojidir?  Yapay zeka, insan zekasını gerektirdiği düşünülen faaliyetleri simüle etmek için makinelerin veya bilgisayarların kullanımını temsil eder ve makine öğrenimi ve sinir ağları dahil olmak üzere araştırmacılar, şirketler ve hükümetler tarafından kullanılan farklı AI yöntemleri vardır. AI teknolojisi geliştirme yörüngesindeki mevcut çalışma, AI araştırmacıları arasında bile, AI'daki potansiyel ilerleme hızları hakkında çok fazla belirsizlik olduğunu göstermektedir. Bazı araştırmacılar suni genel istihbaratın (AGI) sadece birkaç yıl uzaklaşmasına olanak tanıyan atılımlara inanırken, diğerleri böyle bir atılımdan önce onyılların veya daha fazlasının gerekli olabileceğini düşünüyor. 


Bu makalede, “Go” oyununu yenmek için tasarlanmış bir AI sistemi olan “AlphaGo Zero” gibi belirli problemleri çözmek için “dar” yapay zekâ ya da AI uygulanmasına odaklanılmaktadır.

Tarihsel bir perspektiften bakıldığında, inovasyonun hızına bağlı olarak, teknolojinin gelişmesiyle ilgili iyimserler haklıysa, ekonominin ve toplumun geniş alanlarını etkilemek için AI potansiyelinin geniş bir teknolojiyi temsil ettiği açıktır. Bir roket veya uçak gibi ayrı bir ekipman parçası yerine, uygulamaya bağlı olarak birçok şeyin parçası olabilecek bir şeydir. Böylece, AI askeri amaçlar için daha iyi bir kolaylaştırıcı olarak düşünülebilir.


Askeri istihbarat militanlar için ne anlama geliyor?  Bununla birlikte, askeri araçlar yapay zekayla ne yapabilirler ve bu neden uluslararası politika için önemlidir? Başka bir deyişle, bazı askeri kuvvetler yapay zekanın modern savaşın zorluklarını çözmelerine yardımcı olabileceğine inanabilir mi? 


AI'nın üç potansiyel uygulama alanı, askerlerin ilgisinin nedenini göstermektedir.

Birincisi, veriler , genellikle şirketlerin ya da devletlerin karşı karşıya kaldıklarına benzer bir şekilde birçok modern asker için meydan okumadır; çoğu zaman çok fazla veri vardır ve bunu yeterince hızlı işlemek zordur. Bilginin işlenmesi için Dar AI uygulamaları, veri yorumlama sürecini hızlandırma ve daha yüksek seviyedeki görevler için insan emeğini serbestleştirme potansiyelini sunmaktadır. Örneğin, Birleşik Devletler Ordusu'ndaki Project Maven, görüntüleri drone gözetim beslemelerinden daha hızlı bir şekilde yorumlamak için algoritmaları kullanmayı amaçlamaktadır. Silahlı kuvvetler için bu dar AI uygulamasının açık ticari analogları vardır ve görüntü tanımanın ötesine geçebilir. Görüntü tanımadan kamuya açık veya sınıflandırılmış bilgi veri tabanlarının işlenmesine kadar, AI uygulamaları, orduların daha doğru ve hızlı bir şekilde bilgiyi yorumlamasına yardımcı olabilir.


İkincisi, üst düzey askeri ve sivil liderler hipersoniklerden siber saldırılara kadar savaş hızının arttığına inanıyor. Bir OODA (gözlemlemek, yönlendirmek, karar vermek, hareket etmek) döngüsüne ya da geldiğinizin bilinmesinden önce bir düşmana saldırmak arzusunu düşünün, hız modern savaşlarda avantaj sağlayabilir. Bununla birlikte, hız sadece bir uçağın ya da cephanenin hızıyla ilgili değildir. Hız karar verme ile de ilgilidir. Uzaktan pilotlu sistemlerde olduğu gibi, AI'ın “pilotluk” yaptığı, bir insan pilotunun sınırlamalarından kurtulan uçaklar, hız ve manevra kabiliyeti için kokpitte insan pilotlarına göre birçok avantajı  sağlayabilir. Örneğin hava savunması durumunda, Makine hızıyla çalışan bir sistem, ne kadar yetkin olursa olsun, refleksleri bunalmış bir insandan ziyade, bir füzenin doyma saldırılarına maruz kaldığında askeri üssü veya şehri daha etkili bir şekilde korumaya olanak sağlayabilir. Bu prensip altında İsrail'in Iron Dome sistemi çalışıyor.


Üçüncüsü, AI, savaş alanında bir dizi yeni askeri harekât kavramını mümkün kılabilir; örneğin, bir dizi insani olmayan varlıkları da koordine edebilen bir insan uçak pilotu veya tank sürücüsü için tartışılan “sadık kanatçı” fikri gibi. Ne var ki, savaş alanı ne kadar karmaşıksa, bu “kanatlılar” için, koordine edici insan denetçisinin doğrudan onlara rehberlik edemediği durumlarda yanıt vermelerine yardımcı olacak algoritmalara sahip olmaları daha yararlı olacaktır. Swarms, benzer şekilde, muhtemelen koordinasyon için AI gerektirecektir.


Açıktır ki, askeri faaliyetlerin etkinliğini artırabilecek potansiyel AI uygulamalarını araştırmaya yönelik teşvikler vardır. Bu teşvikler, sadece diğer askeri güçlerle rekabet baskısı meselesi değildir; Ülkeleri özerk silah sistemine yönlendiren iç politik ve bürokratik nedenler vardır. Amerika Birleşik Devletleri gibi demokrasiler için, teoride özerk sistemler, daha düşük maliyetle ve insan personeline yönelik riskle görevleri gerçekleştirme potansiyeli sunmaktadır. Örneğin, 2017 yılında yayınlanan ABD Ordusu Robotik ve Özerk Sistemler Stratejisi, özerk sistemlerin daha düşük maliyet ve riskte etkinliği artırma becerisine özellikle atıfta bulunmaktadır.


Çin ve Rusya gibi daha otokratik rejimler için, AI kontrol anlamına gelir. AI sistemleri, otokratik milletlerin insanlara olan bağımlılıklarını azaltmalarına izin verebilir ve bu da onların daha küçük, daha sadık ve nüfusun bir parçası olarak hareket ederek ordularını kullanmalarını sağlar.


AI'nin askeri uygulamalarına ilişkin bu tartışma, Birleşmiş Milletler'in Bazı Geleneksel Silahları Konvansiyonunun birkaç yıldır tartıştığı ölümcül özerk silah sistemleri sorunundan daha geniştir. AI'nin askeri amaçlar için bir uygulaması, ölümcül güç kullanma yeteneğine sahip otonom sistemlerin oluşturulması olabilir, ancak başkaları da vardır.


Yapay zekanın etkili kullanımının önündeki engeller


AI'nın askeri olarak benimsenmesi hem teknolojik hem de örgütsel zorluklarla karşı karşıyadır ve bazıları, modern orduların sahte AI tabanlı dönüşümü gerçekte gerçekleşmeyecek şekilde işletmeyi rayından çıkarabilecek güvenlik ve güvenilirlik ile ilgili ilk derece endişe türleridir. Bu teknolojik zorluklar iki geniş kategoriye ayrılır: İç güvenilirlik ve dış sömürü.

Dar AI sistemlerinin özel karakterleri, ister satranç oynamak için isterse de görüntüleri yorumlamak için olsun, çok özel görevler için eğitildikleri anlamına gelir. Ancak savaşta, Clausewitz'in meşhur örneğinde olduğu gibi çevre, sis ve sürtünme nedeniyle hızla değişiyor. Belirli bir AI sisteminin uygulanması için içerik değişirse, AI sistemleri uyum sağlayamayabilir. Bu temel kırılganlık, böylece sistemin güvenilirliği için bir risk haline gelir. Savaş alanında birbirine karşı kurulan AI sistemleri, bir veya daha fazla sistemin kavrama yeteneğinin ötesine geçen karmaşık sistemlere yol açabilir, bu da sistemlerin kırılganlığını daha fazla öne çıkararak kaza ve hata potansiyelini artırır .


En iyi eylemi belirleyen ve alan bir makine anlamına gelen AI'nin doğası, AI sistemlerinin davranışlarını tahmin etmeyi zorlaştırabilir. Örneğin AlphaGo, dünyanın en iyi Go oyuncularından biri olan Lee Sedol'u yendikten sonraki ikinci oyunda AlphaGo sıra dışı bir hamle yaptığında, Sedol'ün 15 dakika boyunca odadan çıktığında neler olduğunu değerlendirmesi çok ilginçti. Bu hareketin, elit bir insan oyuncunun bile düşünemeyeceği bir şey olduğu ortaya çıktı, ama makine bunu çözmüştü.. Bu, AI'nin karar verme süreçlerinde iyileştirme potansiyeli olduğunu göstermektedir. Bununla birlikte, silahlı kuvvetler güvenilirlikle ve güvene dayalı olarak çalışırlar; eğer bir komuta merkezinde ya da savaş alanında, insan operatörleri, belirli bir durumda bir AI'nın ne yapacağını tam olarak bilmezlerse, bu muhtemel durum planlamayı zorlaştırabilir, operasyonları daha zor hale getirebilir ve daha fazla kaza yapılmasına neden olabilir.


Her olası beklenmedik durum için bir AI sisteminin programlanması zorluğu da güvenilirliği zayıflatabilir. Örneğin Tetris oynamak için eğitilmiş bir AI sistemini alın. Geliştiren araştırmacılar, AI'nın zafer olasılığını en üst düzeye çıkarma talimatını veren emri yerine getirmek için, oyunu kaybetmek üzere olduğu zamanlarda oyunu duraklatmak için kendini eğitmiş olduğunu keşfetti. AI tarafından yapılan bu uyarlama, çoğu askeri gücün tahammül edemeyeceği davranışsal belirsizliği yansıtmaktadır. Önyargı ve uygun eğitim verileriyle ilgili zorluklar, güvenilirliği daha da zorlaştırabilir. 


Açıklanabilirlik, AI sistemleri için başka bir zorluğu temsil eder 

Bir sistemin sadece güvenilir olması değil, başkalarının da güven duymasına izin verecek şekilde açıklanması önemlidir. Bir AI sistemi bir görüntünün sınıflandırılmasında veya rakip radarlardan kaçınılmasında belirli bir şekilde davranıyorsa, ancak bunun neden belirli bir seçim yaptığını belirleyemiyorsa, insanların buna güvenme olasılığı daha düşük olabilir.

Güvenilirlik, basit bir AI sistem tasarımı meselesi değildir


Savaş, rekabetçi bir çabadır ve aynı zamanda, askeri ve istihbarat örgütleri, barış ve savaş zamanlarında potansiyel düşmanların operasyonlarını kırmaya ve kesintiye uğratmaya çalışırken, bu sistemler bir arka ofiste bulunsun, AI sistemleriyle dolu bir dünya için de bu durum geçerli olacaktır.. Bu arka ofisler Kansas'ta ya da bir savaş alanında konuşlandırılabilir.

Araştırmacılar, görüntü tanıma algoritmalarının piksel düzeyindeki zehirli verilere duyarlı olduğunu zaten göstermişlerdir. Bu sınıflandırma problemlerine yol açar. Açık kaynaklı veriler konusunda eğitilen algoritmalar, rakiplerin askeri amaçlar için algoritmaları eğitme konusunda diğer ülkelerin bile makul bir şekilde kullanabileceği verileri “zehirlemeye” çalıştıkları için bu meydan okumaya karşı özellikle savunmasız olabilir. Bu rakip veri sorunu önemlidir. Hacking, aynı zamanda, daha güvenli ağlar konusunda eğitilen algoritmaların kullanılmasına yol açabilir ve siber güvenlik ile ulusal güvenlik alanında yapay zeka arasındaki kritik etkileşimi gösterir .

Askeri araçlar ne zaman yapay zeka kullanacak?  


AI ve silahlar üzerindeki kamuoyu diyaloğunda sıklıkla kaybedilen kilit nokta, silahlı kuvvetler, AI-tabanlı sistemleri, genel olarak belirli bir görevin yerine getirilmesinde, mevcut bir sisteme göre daha iyi olmadıkça, bir görüntüyü yorumlayıp bir hedefi bombalamayacakları veya bir savaş planlayamayacaklarıdır.

Rakiplerin birbirlerinin sistemlerini bozmaya çalıştıkları rekabetçi bir ortamda güçlenen bu güvenlik ve güvenilirlik sorunları göz önüne alındığında, askeri bağlamda AI için vaatler nelerdir? Militanlar, AI uygulamalarını sadece bu güvenlik problemleri nedeniyle araştırmayı bırakmazlar. Ancak bu güvenlik ve güvenilirlik sorunları, geliştirilen “AI” sistemlerinin çeşitliliğini ve “düzenli” askeri operasyon planlamasına entegrasyonunu etkileyebilir.


Askeri teknolojik entegrasyonun üç katmanını (geliştirme, dağıtım ve kullanım) düşünün. Bu aşamaların her birinde, gelişmiş etkililik potansiyeli, insan askerleri için daha düşük risk ve daha düşük maliyet, askerlerin nasıl davrandığını etkilemek için güvenlik ve güvenilirlik zorlukları ile rekabet edecektir.


AI'daki askeri araştırmalar rekabetçi bir ortamda gerçekleşmektedir 


Çin'in anakaradaki AI araştırmalarına saldırganca yaklaşması, ABD'nin AI yeteneklerini kullanarak ABD'yi aşması konusunda endişelenmesine neden oldu. AI entegrasyonunun olası olumsuzlukları göz önüne alındığında, birçok asker diğer aktörlerin kapasitelerinden geride kalmaktan korkacaklardır. Hiçbir ülke, savaşçılarının, gemilerinin ya da tanklarının bir rakip sürüsüne ya da savaş ortamında daha hızlı tepki veren ve daha hızlı ateş eden rakip sistemlere karşı risk almasını istemez.

Oluşturulmasına rağmen, biz hala AI'nın askeri sistemlere entegrasyonunun başlangıcındayız. Duke's Humans ve Autonomy Lab'ın müdürü Missy Cummings, dünyadaki askeri sistemlerin otonom sistemlerin, araştırma ve geliştirmedeki artışlara rağmen, ilerlemenin “artımlı” olduğunu ve kuruluşların “kalkınmadan operasyonel uygulamaya sıçramaya çalışmakla uğraştığını” savunuyor .


Geliştirme aşamasında, test ve entegrasyon faaliyetleri potansiyel güvenlik ve güvenilirlik zorluklarını ortaya çıkarmalı ve AI'nin askeri uygulamaları için önemli bir yatırım alanı haline getirmelidir. Silahlı kuvvetler, bu risklerin, bazı durumlarda, geri kalma riski ve programlama zorluklarını anında düzeltebilecekleri inancı nedeniyle, kabul edilebilir olduğuna karar verebilir. Esasen, askeri kuvvetler, AI alanlarındaki güvenilirlik ve yetenek arasındaki dengeyi, daha büyük yetenekler sunan, ancak güvenilirlik riskleri olan AI sistemleri ile karşılaştıracaklardır.


AI sistemlerini kullanmak söz konusu olduğunda, askeri kuvvetler belirli bir çatışmaya özgü konuları dikkate alabilir. Bir ihtilaf ortaya çıktığında, askeri görüşlerin mağlup edilmesi sonucu teknolojilerin büyük vaatlerinin yerine getirilmesi kararlaştırıldığında bu durum güvenilirlik kaygılarıyla da doğal olarak daha fazla risk kabulüne dönüşecektir. Buna karşılık, bir asker daha az teknolojik risk aldığında kazanabileceğine, askeri sistemlerin mevcut sistemlerden daha güvenilir veya risksiz olduğuna inandığı sürece, AI sistemlerinin konuşlandırılması gecikecektir.


Askeri ve ticari teknoloji geliştirme tarihine, hem güvenlik nedenleri hem de güvenirlik problemlerinin AI askeri entegrasyonunda tam bir kesintiye yol açıp açmayacağı endişesiyle veya askeri açıdan bakılmamalıdır. Karl Benz, 1886 yılında benzinle çalışan bir yanmalı motorla çalışan ilk motorlu aracı üretmiştir. Bu, gazla çalışan içten yanmalı motor için ilk patentler alındıktan sonraki bir nesildir ve arabanın baskın bir ulaşım aracı olarak atın yerini alması Benz'in otomobilinden sonra başka bir jenerasyona kalmıştır.. Bu ne kadar uzun sürdü? Cevap güvenlik ve güvenilirliktir. Erken içten yanmalı motorun karşılaştığı zorluklar arasında güvenilirlik, maliyetler, standart makinelerin eksikliği, üretim tutarsızlığı vardı; yanmalı motor çalışıyordu.


Bu tanıdık hikaye, yeni teknolojiler icat edildiğinde tekrarlandı. Statükoya göre daha fazla yetenek vaat ederken, önemli güvenlik ve güvenilirlik sorunları ile karşı karşıya kalındı. Bazen, yanmalı motor veya uçakta olduğu gibi, bu sorunların üstesinden gelindi. Bazen de, hava taşıtlarının ya da direncilerin askeri kullanımında olduğu gibi, güvenlik sorunları o kadar büyük bir yere sahipti ki, teknoloji alternatiflerden daha güvenilir olmayacaktı.


AI ve savaşın geleceği 


Dünya için AI geliştirmelerinden elde edilen sonuçlar muhtemelen askeri iktidarın ve savaşın geleceği için sorunların aşmasını sağlayacaktır. Otomasyonun işin geleceği üzerindeki etkisi, orduların belirli askeri bölgeler için AI uygulamaları geliştirip geliştirmeyecekleri konusunda karar verdikleri seçimlerden bağımsız olarak ortaya çıkabilecek muazzam ekonomik ve toplumsal sonuçlara sahip olabilir. Fransa Cumhurbaşkanı Emmanuel Macron, geçtiğimiz günlerde AI iş modellerini ve işlerini, AI gelişiminde Fransız liderliğini sağlamak için yeni bir Fransız AI stratejisi gerektiren bir ölçekte değiştireceğini açıkladı. Yine de, AI'nin potansiyel bir askeri uygulamasında, AI'yi savaş alanında öldürmek için kullanmaya karşı olduğunu belirten bir hatırlatmada bulundu. Fransa istihbarat topluluğu, Fransız ordusunun savaş alanındaki performansını arttırmaya yardımcı olabileceğine inanarak veri işlemenin hızını ve güvenilirliğini geliştirmek için AI'yı zaten kullanıyor .

Güvenlik ve güvenilirlik endişelerine rağmen AI'nın potansiyel vaatleri, dünyanın dört bir yanında, önde gelen askerlerin hala ayakta durma risklerini göreceği anlamına geliyor. Veri işlenmesinden, kavramları savaş yönetimine dönüştüren AI, daha az insanın risk altına girmesine karşın, orduların daha hızlı ve daha doğru bir şekilde işlemesine yardımcı olabilir. Ya da olmaz. Mevcut makine öğrenimine ve sinir ağı yöntemlerine özgü güvenlik ve güvenilirlik problemleri, diğer konular arasında rakip verilerin, AI'nın birçok askeri uygulamasında zorluk çıkaracağı anlamına gelir.


Amerika Birleşik Devletleri'nin ulusal güvenlik kurumundaki üst düzey liderler, ABD'nin teknolojik değişim çağındaki risklerini iyi biliyor. Savunma Bakanı James Mattis geçtiğimiz günlerde “hala erken” olduğunu belirtti, ancak şimdi AI'nın “savaşın temel doğasını” değiştirip değiştiremeyeceğini sorguluyor. Halen ABD'nin AI'daki yatırımları, ulusal AI stratejisini ortaya çıkaran Çinli akademik, ticari ve askeri çevrelerde yatırım dalgası süren Çin'e kıyasla nispeten mütevazı.  


Amerika Birleşik Devletleri, daha geniş teknolojik değişimlerin askeri üstünlüğü etkileyebileceği yollarla ilgili bir yüzyıl önce olduğu gibi İngiltere’den daha fazla farkında olabilir, ancak bu başarıyı garanti etmez. Bu özellikle, herhangi bir teknolojinin etkisinin, esas olarak insanların ve kuruluşların bunu nasıl kullanmaya karar verdiğine bağlı olduğu düşünüldüğünde doğrudur. Longbow, 'donanma havacılığının gücü savaş gemisi çağını sona erdirdi' gerçeğinden ayrıldığından, tarih, büyük bir savaş alanında yenilgiye uğrayana kadar hâlâ önde olduklarını düşünen büyük güçlerle doludur.

Askeri kuvvetler için AI sonuçlarının benzer bir ölçekte olup olmayacağını bilmiyoruz. AI araştırma topluluğu içinde bile ilerleme potansiyeli ve güvenlik ve güvenilirlik mücadelesi hakkındaki belirsizliğin derecesi göz önünde bulundurulduğunda, ulusal güvenlik analistleri bundan iki yıl sonra, AI “fad” ı hatırlayacaktır. Bir teknolojinin, yönlendirilen enerji gibi özel teknolojilere ve AI'daki ticari enerji ve yatırım derecesine kıyasla, yapay zekâ çağının, en azından bir dereceye kadar, etraflarındaki dünyadaki askeri kuvvetlerin geleceğini şekillendirmesi daha muhtemel görünmektedir..



Michael C. Horowitz, 23 Nisan 2018, The Bulletin


(Michael C. Horowitz (Mchorowitz ) bir siyaset bilimi profesörü ve Pennsylvania Üniversitesi Perry World House'ın yardımcı direktörüdür)



Seçkin Deniz, 06.10.2018, Sonsuz Ark, Çeviri, Çeviri ve Yansımalar



Not: Çeviri programları kullanılarak İngilizce'den çevrilmiştir.




Sonsuz Ark'tan
  1. Sonsuz Ark'ta yayınlanan yazılardan yazarları sorumludur. 
  2. Sonsuz Ark linki verilerek kısmen alıntı yapılabilir.
  3. Sonsuz Ark yayınları Sonsuz Ark Manifestosu'na aykırı yayın yapan sitelerde yayınlanamaz.

Seçkin Deniz Twitter Akışı