"Tarih kendini tekrar eder, önce trajedi olarak, sonra da saçmalık olarak." Marx'ın aforizması yeni bir öngörü gibi geliyor. Geçtiğimiz hafta, ABD Enerji Bakanlığı sosyal medyada "yeni bir Manhattan Projesi" için şovenist bir çağrı yaptı, bu sefer yapay zeka üstünlüğünde sözde yarışı kazanmak için.
Ancak Manhattan Projesi bir plan değil. Bir uyarıdır; bilimin devlet gücünün hizmetine sokulması, açık sorgulamanın yerini milliyetçi rekabete bırakması ve ilerleme kültünün etik sorumluluktan koparılması durumunda neler olacağına dair uyarıcı bir öyküdür. Gizliliğin nasıl korku yarattığını, kamu güvenini nasıl aşındırdığını ve demokratik kurumları nasıl zayıflattığını gösterir.
Manhattan Projesi, Başkan Truman'ın iddia ettiği gibi, "tarihin en büyük bilimsel kumarı" olabilirdi. Ancak aynı zamanda Dünya'daki yaşamın sürekliliğiyle de ilgili bir kumarı temsil ediyordu. Dünyayı yok olma eşiğine getirdi; hâlâ içine baktığımız bir uçurum. İkinci bir proje bizi uçurumun kenarına itebilir.
Atom çağının kökenleri ile yapay zekanın yükselişi arasındaki benzerlikler dikkat çekicidir. Her ikisinde de, teknolojik inovasyonun ön saflarında yer alan kişiler aynı zamanda alarmı çalan ilk kişiler arasındaydı.
II. Dünya Savaşı sırasında, atom bilimcileri nükleer enerjinin militarizasyonu konusunda endişelerini dile getirdiler. Ancak, muhalif görüşler savaş zamanı gizliliğinin kısıtlamaları altında bastırıldı ve devam eden katılımlar, Nazi Almanyası'ndan önce bombayı inşa etme zorunluluğu algısıyla haklı çıkarıldı. Gerçekte, Manhattan Projesi ivme kazandığında bu tehdit büyük ölçüde azalmıştı, çünkü Almanya nükleer silah geliştirme çabalarından çoktan vazgeçmişti.
Bombanın uygulanabilirliğini değerlendiren ilk teknik çalışmada, bunun gerçekten yapılabileceği sonucuna varıldı ancak "radyasyonlu maddelerin rüzgarla yayılması nedeniyle bombanın çok sayıda sivili öldürmeden kullanılamayacağı ve bu nedenle silah olarak kullanılmaya uygun olmayacağı" uyarısında bulunuldu.
1942 yılında bilim insanları ilk atom zincirleme reaksiyonunun atmosferi tutuşturabileceği teorisini ortaya attıklarında, Arthur Holly Compton böyle bir riskin gerçek olması durumunda "bu bombaların asla yapılmaması gerektiğini... İnsanlığın son perdesini çekme riskine girmektense Nazilerin köleliğini kabul etmenin daha iyi olacağını" düşündüğünü söyledi.
Leo Szilard, Başkan Truman'ı bu bombayı Japonya'ya karşı kullanmaktan kaçınmaya çağıran bir dilekçe taslağı hazırladı. Bu tür bombalamaların hem ahlaki olarak savunulamaz hem de stratejik olarak dar görüşlü olacağı konusunda uyarıda bulundu: "Bu yeni özgürleşmiş doğa güçlerini yıkım amacıyla kullanma emsalini oluşturan bir ulus," diye yazdı, "hayal edilemeyecek ölçekte bir yıkım dönemine kapı açma sorumluluğunu üstlenmek zorunda kalabilir."
Bugün, dünya savaşı bahanesinin arkasına saklanamayız. Cahil olduğumuzu iddia edemeyiz. Varoluşsal bir düşmanın hayaletini de çağıramayız. Yapay zekayı çevreleyen uyarılar açık, kamusal ve kesindir.
2014 yılında Stephen Hawking, "tam yapay zekanın geliştirilmesinin insan ırkının sonu anlamına gelebileceği" uyarısında bulundu. Daha yakın yıllarda, "yapay zekanın vaftiz babası" olarak anılan Geoffrey Hinton, kontrolsüz yapay zeka gelişiminin oluşturduğu "varoluşsal risk" ile ilgili artan endişeleri gerekçe göstererek Google'dan istifa etti.
Kısa bir süre sonra, araştırmacılardan ve endüstri liderlerinden oluşan bir koalisyon, "yapay zekadan kaynaklanan yok olma riskini azaltmanın, pandemiler ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olması gerektiğini" belirten ortak bir bildiri yayınladı. Bu sıralarda, binlerce uzman ve on binlerce kişi tarafından imzalanan açık bir mektup, yörüngesini ve uzun vadeli sonuçlarını düşünmek için yapay zeka gelişimine geçici bir ara verilmesi çağrısında bulundu.
Yine de daha güçlü yapay zeka geliştirme yarışı, öngörüden ziyade ilerlemenin durdurulmasının rakiplerden, özellikle Çin'den geride kalmak anlamına geleceği korkusuyla hız kesmeden devam ediyor. Ancak böylesine derin riskler karşısında, insan şunu sormalı: tam olarak neyi kazanacağız?
Albert Einstein, kendi zamanında teknolojik ilerlemenin tehlikeleriyle yüzleşmede benzer başarısızlığın yaşandığını düşünerek, "atomun serbest bırakılan gücü, düşünme biçimimiz dışında her şeyi değiştirdi ve böylece benzeri görülmemiş bir felakete doğru sürükleniyoruz" uyarısında bulundu. Onun sözleri bugün de aynı derecede acildir.
Ders açık olmalı: Atom çağının hatalarını tekrarlamayı göze alamayız. Manhattan Projesi'ni yapay zeka gelişimi için bir model olarak öne sürmek yalnızca tarihsel olarak cahilce değil, aynı zamanda politik olarak da pervasızdır.
İhtiyacımız olan şey korku, rekabet ve gizlilikle körüklenen yeni bir silahlanma yarışı değil, tam tersidir: Teknolojik gelişmeyi demokratikleştirmek ve silahsızlandırmak için küresel bir girişim; insan ihtiyaçlarını ön planda tutan, onur ve adaleti merkeze alan ve herkesin kolektif refahını ilerleten bir girişim.
Otuz yıldan fazla bir süre önce, eski nükleer savaş planlayıcısı ve muhbir Daniel Ellsberg, farklı bir tür Manhattan Projesi çağrısında bulundu. Yeni silahlar inşa etmek için değil, ilkinin zararını ortadan kaldırmak ve halihazırda sahip olduğumuz kıyamet makinelerini sökmek için. Bu vizyon, takip etmeye değer tek rasyonel ve ahlaki olarak savunulabilir Manhattan Projesi olmaya devam ediyor.
Atom bombasında olduğu gibi, bunu yalnızca geriye dönüp bakarak fark edip harekete geçme lüksümüz yok. Projeden etik gerekçelerle istifa eden tek bilim insanı olan Joseph Rotblat, kolektif başarısızlıklarını şöyle yansıtıyor:
“Nükleer çağ, bilim insanlarının... bilimin temel ilkelerini, açıklığı ve evrenselliği tamamen hiçe sayarak yarattığı bir şeydir. Gizlilik içinde tasarlanmış ve -hatta doğmadan önce- bir devlet tarafından gasp edilerek siyasi egemenlik sağlanmıştır. Bu tür doğuştan gelen kusurlarla ve Dr. Strangeloves ordusu tarafından beslenerek, yaratımın bir canavara dönüşmesi şaşırtıcı değildir... Biz bilim insanlarının cevaplaması gereken çok şey var.”
Eğer içinde bulunduğumuz yol felakete yol açıyorsa, cevap hızlanmak değildir. Doktorlar Bernard Lown ve Evgeni Chazov'un Soğuk Savaş silahlanma yarışının zirvesinde uyardığı gibi: "Bir uçuruma doğru yarışırken, ilerlemeyi durdurmak gerekir."
İlerlemeye karşı çıkmaktan değil, farklı bir ilerlemeyi, bilimsel etiğe, insanlığa saygıya ve kolektif varlığımıza olan bağlılığa dayanan bir ilerlemeyi hedeflemekten vazgeçmeliyiz.
Yapay zekanın oluşturduğu tehditler konusunda ciddiysek, güvenliğin rakiplerimizi geride bırakmakta yattığı yanılsamasını terk etmeliyiz. Bu teknolojiye en yakın olanların uyardığı gibi, bu yarışta zafer olamaz, sadece paylaşılan bir felaketin hızlanması olabilir.
Nükleer çağı şimdiye kadar kıl payı atlattık. Fakat onun derslerine kulak asmaz ve kendi insan zekamızı terk edersek, yapay zeka çağını atlatamayabiliriz.
Eric Ross, 5 Haziran 2025, CounterPunch
(Eric Ross, Massachusetts Amherst Üniversitesi Tarih Bölümü'nde bir organizatör, eğitimci, araştırmacı ve doktora adayıdır. RootsAction Eğitim Fonu tarafından desteklenen ulusal Teach-In Ağı'nın koordinatörüdür.)
Eyüp Kaan, 14.07.2025, Sonsuz Ark, Çevirmen Yazar, Sonsuz Ark Çevirileri
- Sonsuz Ark'ta yayınlanan yazılardan yazarları sorumludur.
- Sonsuz Ark linki verilerek kısmen alıntı yapılabilir.
- Sonsuz Ark yayınları Sonsuz Ark manifestosuna aykırı yayın yapan sitelerde yayınlanamaz.
- Sonsuz Ark Yayınlarının Kullanımına İlişkin Önemli Duyuru için lütfen tıklayınız.