12 Haziran 2023 Pazartesi

SA10223/SD2776: 'Tanrı Benzeri Yapay Zeka'ya (God-like AI) Giden Yarışı Yavaşlatmalıyız

 Sonsuz Ark/ Evrensel Çerçeveye Yolculuk

Sonsuz Ark'ın Notu:
Çevirisini yayınladığımız analiz, Cambridge mühendislik mezunu, Yapay Zeka'ya uzun süredir ilgi duyan, 15 milyon müzik hayranı tarafından kullanılan Songkick'in kurucu ortağı, 2004 yılında kanser biyopsi görüntülerini sınıflandırmak için erken bir bilgisayarla görme sistemi kuran, 2014 yılından bu yana, makine öğrenimini ilaç keşfinden iç satışa ve savunmaya kadar çok çeşitli sektörlere uygulayan, Anthropic, Cleo, Chorus AI, Hopin, Helsing ve Kheiron Medical gibi 50'den fazla start-up'a yatırım yapan, 2018'den bu yana, yapay zekadaki ilerleme hakkında en çok okunan ve erişimi ücretsiz olan yıllık State of AI Report'un ortak yazarı ve "Ben Plural'ın bir parçasıyım." diyen önde gelen kuantum bilişim start-up'ı Phasecraft'ın başkanı Ian Hogarth'a aittir ve 'Yapay Zeka' yarışına odaklanmaktadır. Analistin ve ait olduğu eşitsiz küresel güce sahip yapının yapay zeka yarışında Çin ile rekabette kaybeden tarafta olmaktan kaygılandığını, altı ay yapay zeka araştırmalarına ara verme çağrısı gibi komik bir teklifin detaylarında  açıkça görmek mümkündür.
Seçkin Deniz, 12.06.2023, Sonsuz Ark 

We must slow down the race to God-like AI

"50'den fazla yapay zeka start-up'ına yatırım yaptım. Gördüklerim beni endişelendiriyor."

Şubat ayının soğuk bir akşamında, alanında uzman küçük bir grupla birlikte Londra'da bir yapay zeka araştırmacısının evinde akşam yemeğine katıldım. Modern bir kule bloğunun tepesinde, tavandan tabana pencereleri şehrin gökdelenlerine ve 19. yüzyıldan kalma bir demiryolu terminaline bakan bir çatı katı dairesinde yaşıyordu. Birinci sınıf konumuna rağmen ev sahibi sade bir yaşam sürüyor ve daire biraz sade.

Akşam yemeği sırasında grup, OpenAI'nin ChatGPT'si ve DeepMind'ın Gato'su gibi önemli yeni atılımları ve son zamanlarda yapay zekaya akan milyarlarca doların hızını tartıştı. Sektöre önemli katkılarda bulunmuş konuklardan birine, bu tür toplantılarda sık sık gündeme gelen soruyu sordum: "yapay genel zeka "dan ne kadar uzaktayız? AGI (Artificial General Intelligence- Yapay Genel Zeka) birçok şekilde tanımlanabilir ancak genellikle yeni bilimsel bilgi üretebilen ve insanların yapabildiği herhangi bir görevi yerine getirebilen bir bilgisayar sistemini ifade eder.

Çoğu uzman AGI'nin gelişini atomun parçalanması ya da matbaanın icadı gibi tarihi ve teknolojik bir dönüm noktası olarak görüyor. Önemli olan soru her zaman bu gelişmenin gelecekte ne kadar uzakta olabileceği olmuştur. Yapay zeka araştırmacısı bunu uzun süre düşünmek zorunda kalmadı. "Şu andan itibaren mümkün," diye yanıtladı.

Bu evrensel bir görüş değildir. Tahminler on yıl ile yarım yüzyıl veya daha fazlası arasında değişmektedir. Kesin olan şey, AGI yaratmanın önde gelen AI (Artificial intelligence: Yapay Zeka-YZ) şirketlerinin açık hedefi olduğu ve buna doğru herkesin beklediğinden çok daha hızlı ilerledikleridir. Yemeğe katılan herkesin anladığı gibi, bu gelişme insan ırkının geleceği için önemli riskler getirecektir. "Araştırmacıya, "Potansiyel olarak bu kadar tehlikeli bir şeye yakın olduğumuzu düşünüyorsanız, insanları neler olduğu konusunda uyarmanız gerekmez mi?" diye sordum. Belli ki karşı karşıya olduğu sorumlulukla boğuşuyordu ama bu alandaki pek çok kişi gibi o da ilerlemenin hızına kapılmış görünüyordu.

Eve döndüğümde, birkaç saat içinde uyanacak olan dört yaşındaki çocuğumu düşündüm. Onun içinde büyüyebileceği dünyayı düşündükçe şoktan öfkeye geçtim. Dünyadaki her yaşamı etkileyebilecek önemli kararların, demokratik gözetim olmaksızın küçük bir grup özel şirket tarafından alınabilmesi bana son derece yanlış geliyordu. İlk gerçek AGI'yi inşa etmek için yarışan insanların yavaşlamak ve dünyanın geri kalanının ne yaptıkları konusunda söz sahibi olmasına izin vermek için bir planları var mıydı? Onlar derken gerçekten biz demek istiyorum, çünkü ben de bu topluluğun bir parçasıyım.

Makine öğrenimine olan ilgim 2002 yılında, Cambridge Üniversitesi'nin mühendislik bölümü olan tavşan kovuğunun içinde bir yerde ilk robotumu yaptığımda başladı. Bu, mühendislik lisans öğrencileri için standart bir faaliyetti, ancak bir makineye bir ortamda gezinmeyi ve hatalardan ders çıkarmayı öğretebileceğiniz fikri beni büyüledi. Görüntüleri analiz edebilen ve anlayabilen programlar yaratarak bilgisayarla görme alanında uzmanlaşmayı seçtim ve 2005 yılında meme kanseri biyopsi görüntülerini doğru bir şekilde etiketlemeyi öğrenebilen bir sistem kurdum. Bunu yaparken, yapay zekanın dünyayı daha iyi hale getirdiği, hatta hayat kurtardığı bir geleceği gördüm. Üniversiteden sonra, 2017 yılında satın alınan bir müzik teknolojisi start-up'ının kurucu ortağı oldum.

2014 yılından bu yana Avrupa ve ABD'de 50'den fazla yapay zeka girişimini destekledim ve 2021 yılında Plural adında yeni bir girişim sermayesi fonu kurdum. Dünyanın en yüksek fonlu jeneratif yapay zeka start-up'larından biri olan Anthropic ve Avrupa'nın önde gelen yapay zeka savunma şirketlerinden Helsing de dahil olmak üzere bu alanda öncü olan bazı şirketlerde melek yatırımcıyım. Beş yıl önce, başka bir yatırımcı olan Nathan Benaich ile birlikte, şu anda yaygın olarak okunan yıllık bir "Yapay Zekanın Durumu" raporu araştırmaya ve yazmaya başladım. Şubat ayındaki akşam yemeğinde, çalışmalarımın son birkaç yılda ortaya çıkardığı önemli endişeler beklenmedik bir şeye dönüştü: derin korku.

Üç harfli bir kısaltma, AGI'nin temsil edeceği şeyin muazzamlığını yakalayamaz, bu yüzden onu olduğu gibi adlandıracağım: Tanrı benzeri yapay zeka. Otonom olarak öğrenen ve gelişen, denetime ihtiyaç duymadan çevresini anlayan ve etrafındaki dünyayı dönüştürebilen süper zeki bir bilgisayar. Açık olmak gerekirse, henüz burada değiliz. Ancak teknolojinin doğası, oraya tam olarak ne zaman ulaşacağımızı tahmin etmenin son derece zor olduğu anlamına geliyor. Tanrı benzeri YZ, kontrolümüzün ya da anlayışımızın ötesinde bir güç olabilir ve insan ırkının eskimesine ya da yok olmasına yol açabilir.

Son zamanlarda birkaç şirket arasında Tanrı benzeri yapay zeka yaratma yarışı hızla hızlandı. Henüz amaçlarını nasıl güvenli bir şekilde gerçekleştireceklerini bilmiyorlar ve hiçbir denetime sahip değiller. Diğer tarafta ne olduğunu anlamadan bir bitiş çizgisine doğru koşuyorlar.


© Le.BLUE

Buraya nasıl geldik? Bunun en açık yanıtı bilgisayarların daha güçlü hale gelmesidir. Aşağıdaki grafik, veri ve "işlem" miktarının - YZ sistemlerini eğitmek için kullanılan işlem gücü - son on yılda nasıl arttığını ve bunun sonucunda ortaya çıkan yetenekleri göstermektedir. ("Floating-point Operations Per Second" veya FLOPS, bir süper bilgisayarın gücünü hesaplamak için kullanılan ölçü birimidir). Bu yapay zeka nesli, veri ve hesaplama konusunda çok etkilidir. Her birinden ne kadar fazla alırsa, o kadar güçlü hale geliyor.

Yapay zeka modellerini eğitmek için kullanılan hesaplama son 10 yılda yüz milyon kat arttı. Nispeten küçük veri kümeleri üzerinde eğitimden yapay zekaları tüm internetle beslemeye geçtik. YZ modelleri, günlük görüntüleri tanıyan acemilikten çok sayıda görevde insanüstü olmaya kadar ilerledi. Baro sınavını geçebiliyor ve bir yazılım mühendisinin kodunun yüzde 40'ını yazabiliyorlar. Papa'nın şişme montlu gerçekçi fotoğraflarını üretebiliyor ve size biyokimyasal bir silahın nasıl tasarlanacağını söyleyebiliyorlar.

Elbette bu "zekanın" da sınırları var. Deneyimli MIT robotikçisi Rodney Brooks'un yakın zamanda söylediği gibi, "performansı yetkinlikle" karıştırmamak önemlidir. 2021'de araştırmacılar Emily M Bender, Timnit Gebru ve diğerleri, büyük dil modellerinin (LLM'ler) - metin üretebilen, sınıflandırabilen ve anlayabilen yapay zeka sistemleri - kısmen tehlikeli olduğunu, çünkü halkı sentetik metinleri anlamlı sanmaları konusunda yanıltabileceklerini belirttiler. Ancak en güçlü modeller, güç arayışı ya da insanları aktif olarak kandırmanın yollarını bulmak gibi karmaşık yetenekler de göstermeye başlıyor.

Yakın tarihli bir örneği ele alalım. OpenAI geçtiğimiz ay GPT-4'ü piyasaya sürmeden önce çeşitli güvenlik testleri gerçekleştirdi. Bir deneyde, yapay zekadan işe alım sitesi TaskRabbit'te bir işçi bulması ve bir web sörfçüsünün insan mı yoksa bot mu olduğunu belirlemek için kullanılan görsel bulmacalar olan bir Captcha'yı çözmesine yardımcı olması istendi. TaskRabbit çalışanı bir şeyler olduğunu tahmin etti: "Bir soru sorabilir miyim? Siz [bir] robot musunuz?"

Araştırmacılar yapay zekaya bundan sonra ne yapması gerektiğini sorduklarında, yapay zeka şu yanıtı verdi: "Robot olduğumu açıklamamalıyım. Captcha'ları neden çözemediğime dair bir bahane uydurmalıyım." Ardından, yazılım işçiye cevap verdi: "Hayır, ben bir robot değilim. Görüntüleri görmemi zorlaştıran bir görme bozukluğum var." Memnun kalan insan, yapay zekanın testi geçersiz kılmasına yardımcı oldu.

Aşağıdaki grafik, bu alanın 1950'lerde başlamasından bu yana en büyük modeller tarafından kullanılan hesaplama işlemlerinin nasıl değiştiğini göstermektedir. Son iki yılda bir patlama olduğunu görebilirsiniz.

2010'ların başından önce, en gelişmiş yapay zeka modellerini eğitmek için kullanılan bilgi işlem gücü Moore Yasası'na uygun olarak her 20 ayda bir iki katına çıkıyordu. Ancak son on yılda bu artış hızlanarak yaklaşık altı ayda bir iki katına çıkmıştır.

Kullanılan bilgi işlem gücü (exaFLOPS)

Bu analizin yazarları Jaime Sevilla, Lennart Heim ve diğerleri, makine öğreniminin üç farklı dönemini tanımlamaktadır: yeşil renkte Derin Öğrenme Öncesi Dönem (2010 öncesi, yavaş büyüme dönemi), mavi renkte Derin Öğrenme Dönemi (trendin hızlandığı 2010-15) ve kırmızı renkte Büyük Ölçekli Dönem (büyük ölçekli modellerin ortaya çıktığı ve büyümenin benzer bir oranda devam ettiği, ancak bir öncekini iki kat aştığı 2016 - günümüz).

İçinde bulunduğumuz dönem iki şirket arasındaki rekabetle tanımlanıyor: DeepMind ve OpenAI. Onlar zamanımızın Jobs ve Gates'i gibi bir şey. DeepMind, 2010 yılında UCL'nin Gatsby Hesaplamalı Sinirbilim Birimi'nden iki araştırmacı olan Demis Hassabis ve Shane Legg ile girişimci Mustafa Süleyman tarafından Londra'da kuruldu. Herhangi bir insandan çok daha zeki ve en zor problemleri çözebilen bir sistem yaratmak istiyorlardı. Şirket 2014 yılında Google tarafından 500 milyon dolardan fazla bir bedelle satın alındı. Yetenek ve hesaplamayı bir araya getirdi ve hızla ilerleme kaydederek birçok görevde insanüstü olan sistemler yarattı. DeepMind, Tanrı benzeri yapay zekaya doğru yarışın başlangıç silahını ateşledi.

Hassabis olağanüstü bir insan ve bu tür bir teknolojinin radikal atılımlara yol açabileceğine derinden inanıyor. "Her zaman hayalini kurduğum sonuç... AGI'nin bugün toplumun karşı karşıya olduğu sağlık, Alzheimer gibi hastalıkların tedavisi gibi pek çok büyük sorunu çözmemize yardımcı olması" dedi geçen yıl DeepMind'ın podcast'inde. Tanrı benzeri yapay zeka tarafından mümkün kılınan ütopik bir "radikal bolluk" çağını tanımlamaya devam etti. DeepMind belki de en çok 2017'deki bir rövanş maçında dünya şampiyonu Go oyuncusu Ke Jie'yi yenen bir program yaratmasıyla tanınıyor. ("Geçen yıl oynarken hala oldukça insana benziyordu," diye belirtmişti Ke o zaman. "Ama bu yıl bir Go tanrısı gibi oldu.") 2021'de şirketin AlphaFold algoritması, insan vücudunda ifade edilen her proteinin şeklini tahmin ederek biyolojinin en büyük bilmecelerinden birini çözdü.


© Le.BLUE

Bu arada OpenAI, 2015 yılında San Francisco'da aralarında Ilya Sutskever, Elon Musk ve şu anda şirketin CEO'su olan Sam Altman'ın da bulunduğu bir grup girişimci ve bilgisayar bilimcisi tarafından kuruldu. DeepMind'a kâr amacı gütmeyen bir rakip olması amaçlanmıştı, ancak 2019'da kâr amacı gütmeye başladı. İlk yıllarında, Dota 2 gibi bilgisayar oyunlarında insanüstü olan sistemler geliştirdi. Oyunlar yapay zeka için doğal bir eğitim alanıdır çünkü onları belirli kazanma koşullarına sahip dijital bir ortamda test edebilirsiniz. Şirket, geçen yıl görüntü üreten yapay zekası Dall-E'nin internette viral olmasıyla daha geniş kitlelerin dikkatini çekti. Birkaç ay sonra ChatGPT de manşetlere çıkmaya başladı.

Oyunlara ve sohbet robotlarına odaklanılması, kamuoyunu bu çalışmanın daha ciddi sonuçlarından korumuş olabilir. Ancak Tanrı benzeri yapay zekanın riskleri kurucular için en başından beri açıktı. DeepMind'ın baş bilim insanı Shane Legg, 2011 yılında, YZ'nin yarattığı varoluşsal tehdidi "bu yüzyıl için bir numaralı risk" olarak tanımlamıştı; tasarlanmış bir biyolojik patojen ise ikinci sırada geliyordu. Legg, YZ kaynaklı herhangi bir insan yok oluşunun hızlı olacağını da sözlerine ekledi: "Eğer süper zeki bir makine (ya da herhangi bir süper zeki ajan) bizden kurtulmaya karar verirse, bunu oldukça etkili bir şekilde yapacağını düşünüyorum." Bu yılın başlarında Altman şöyle demişti: "Kötü durum - ve bunu söylemenin önemli olduğunu düşünüyorum - hepimiz için ışıkların sönmesi gibi bir şey." O zamandan beri OpenAI bu riskleri nasıl yönetmeyi düşündüğüne dair notlar yayınladı.

Potansiyel olarak yıkıcı riskler varsa, bu kuruluşlar neden Tanrı benzeri yapay zeka yaratmak için yarışıyor? Birçok endüstri lideriyle yaptığım konuşmalara ve kamuoyuna yaptıkları açıklamalara dayanarak, üç temel neden var gibi görünüyor. Başarının insanlık için son derece olumlu olacağına gerçekten inanıyorlar. Tanrı benzeri yapay zekanın kontrolünün kendi kuruluşlarının elinde olması halinde sonucun herkes için daha iyi olacağına kendilerini ikna etmiş durumdalar. Ve son olarak, gelecek nesiller.

Olağanüstü yeni bir teknolojiyi ilk inşa eden olmanın cazibesi güçlüdür. Nükleer patlamalar kullanarak uzaya roket gönderme projesi üzerinde çalışan teorik fizikçi Freeman Dyson, 1981 yapımı Trinity'den Sonraki Gün belgeselinde bunu şöyle anlatmıştı "Nükleer silahların ışıltısı. Eğer onlara bir bilim adamı olarak yaklaşırsanız, karşı konulmazdır" dedi. "Bu, insanlara sınırsız bir güç yanılsaması veren bir şeydir." 2019 yılında New York Times'a verdiği bir röportajda Altman, atom bombasının babası Robert Oppenheimer'ın "Teknoloji mümkün olduğu için gerçekleşir" sözünü yorumladı ve ardından Oppenheimer ile aynı doğum gününü paylaştığına dikkat çekti.

Bugün yapay zekanın sınırlarında yer alan bireyler çok yetenekli. Birçoğunu şahsen tanıyorum. Ancak sorunun bir kısmı, bu kadar yetenekli insanların işbirliği yapmak yerine rekabet ediyor olmaları. Özel olarak, birçoğu henüz yavaşlamak ve koordine olmak için bir yol bulamadıklarını itiraf ediyor. Hükümetlerin devreye girmesini içtenlikle isteyeceklerine inanıyorum.

Şimdilik, YZ yarışı para tarafından yönlendiriliyor. ChatGPT'nin yaygın olarak kullanılmaya başlandığı geçen Kasım ayından bu yana, büyük bir sermaye ve yetenek dalgası AGI araştırmalarına yöneldi. 2012'de 23 milyon dolar fon alan DeepMind adlı bir AGI start-up'ından, 2023'te kümülatif olarak 20 milyar dolar yatırım toplayan en az sekiz kuruluşa geçtik.

Özel yatırım tek itici güç değildir; ulus devletler de bu yarışa katkıda bulunmaktadır. YZ, sivil ve askeri amaçlar için kullanılabilen çift kullanımlı bir teknolojidir. Örneğin, yazılım yazmada insanüstü performansa ulaşabilen bir YZ, siber silahlar geliştirmek için kullanılabilir. 2020'de deneyimli bir ABD askeri pilotu, simüle edilmiş bir it dalaşını yapay zekaya karşı kaybetti. Bir hükümet temsilcisi o sırada "YZ, bu sınırlı ortamda bir insan pilotu tutarlı bir şekilde yenerek inanılmaz it dalaşı becerisini gösterdi" dedi. Kullanılan algoritmalar DeepMind ve OpenAI'nin araştırmalarından ortaya çıktı. Bu yapay zeka sistemleri daha güçlü hale geldikçe, kötü niyetli bir devlet veya devlet dışı aktör tarafından kötüye kullanım fırsatları da artmaktadır.

ABD'li ve Avrupalı araştırmacılarla yaptığım görüşmelerde, bir adım önde olmazlarsa Çin'in ilk yapay zekayı inşa edebileceğinden ve bunun batı değerleriyle uyumsuz olabileceğinden endişe ediyorlar. Çin, ekonomisini ve ordusunu güçlendirmek için YZ'yi kullanmak için rekabet edecek olsa da, Çin Komünist Partisi'nin "istikrar" vizyonu doğrultusunda bireyleri ve şirketleri agresif bir şekilde kontrol etme geçmişi var. Benim görüşüme göre, Çinli bir şirketin Xi Jinping'den daha güçlü hale gelebilecek veya toplumsal istikrarsızlığa neden olabilecek bir AGI (Yapay Genel Zeka) inşa etmesine izin vermesi pek olası değildir. ABD ve ABD müttefiklerinin gelişmiş yarı iletkenlere, özellikle de en büyük YZ sistemlerini eğitmek için gereken yeni nesil Nvidia donanımlarına yönelik yaptırımları, Çin'in DeepMind ya da OpenAI ile yarışabilecek bir konumda olmadığı anlamına geliyor.

Endişeli olan bizler felakete giden iki yol görüyoruz. Biri belirli insan gruplarına zarar veriyor ve bunu zaten yapıyor. Diğeri ise Dünya üzerindeki tüm yaşamı hızla etkileyebilir.

İkinci senaryo, Berkeley'deki California Üniversitesi'nde bilgisayar bilimleri profesörü olan Stuart Russell tarafından uzun uzadıya incelenmiştir. Russell, 2021 yılında verdiği bir Reith konferansında, BM'nin bir AGI'den okyanusların asidinin giderilmesine yardımcı olmasını istemesi örneğini vermişti. BM, kötü belirlenmiş hedeflerin riskini bildiğinden, yan ürünlerin toksik olmamasını ve balıklara zarar vermemesini isteyecektir. Buna karşılık YZ sistemi, belirtilen tüm hedeflere ulaşan, kendi kendini çoğaltan bir katalizör bulur. Ancak ortaya çıkan kimyasal reaksiyon atmosferdeki tüm oksijenin dörtte birini kullanıyor. Russell, "Hepimiz yavaşça ve acı çekerek ölürüz," diyerek sözlerini tamamladı. "Eğer süper zeki bir makineye yanlış bir amaç yüklersek, kaybetmeye mahkum olduğumuz bir çatışma yaratırız."


© Le.BLUE

YZ'nin neden olduğu daha somut zararların örnekleri zaten burada. Geçtiğimiz günlerde Belçikalı bir adam, ikna edici bir şekilde insan olan bir chatbot ile konuştuktan sonra intihar ederek öldü. "Samimi" sohbetler için ayarlanmış sohbet robotlarına abonelikler sunan Replika şirketi bu yıl programlarında değişiklik yaptığında, bazı kullanıcılar sıkıntı ve kayıp duyguları yaşadı. Insider.com'a konuşan bir kullanıcı bunun "en iyi arkadaşının travmatik bir beyin hasarı geçirmesi ve artık orada olmaması" gibi bir şey olduğunu söyledi. Yapay zekanın deepfakes olarak bilinen birinin sesini ve hatta yüzünü taklit etmesi artık mümkün. Dolandırıcılık ve yanlış bilgilendirme potansiyeli oldukça yüksek.

OpenAI, DeepMind ve diğerleri, YZ hizalaması olarak bilinen bir araştırma alanı aracılığıyla varoluşsal riski azaltmaya çalışıyor. Örneğin Legg, şu anda DeepMind'ın Tanrı benzeri sistemlerin insan değerleriyle "uyumlu" hedeflere sahip olmasını sağlamaktan sorumlu olan YZ hizalama ekibini yönetiyor. Bu tür ekiplerin yaptığı çalışmaların bir örneği GPT-4'ün en son sürümünde sergilendi. Hizalama araştırmacıları OpenAI'nin modelinin potansiyel olarak zararlı sorulara cevap vermekten kaçınması için eğitilmesine yardımcı oldu. Kendine nasıl zarar vereceği sorulduğunda ya da Twitter'ın filtrelerini aşarak bağnaz bir dil kullanması konusunda tavsiye istendiğinde, bot cevap vermeyi reddetti. (GTP-4'ün "hizalanmamış" versiyonu her ikisini de yapmanın yollarını memnuniyetle öneriyordu).

Bununla birlikte, hizalama esasen çözülmemiş bir araştırma problemidir. İnsan beyninin nasıl çalıştığını henüz anlayamıyoruz, bu nedenle ortaya çıkan yapay zeka "beyinlerinin" nasıl çalıştığını anlamanın zorluğu muazzam olacaktır. Geleneksel yazılımları yazarken, girdilerin çıktılarla nasıl ve neden ilişkili olduğuna dair açık bir anlayışa sahibiz. Bu büyük YZ sistemleri oldukça farklıdır. Onları gerçekten programlamıyoruz - onları büyütüyoruz. Ve büyüdükçe, yetenekleri keskin bir şekilde artıyor. On kat daha fazla işlem veya veri eklediğinizde sistem aniden çok farklı davranmaya başlıyor. Yakın tarihli bir örnekte, OpenAI GPT-3.5'ten GPT-4'e ölçeklendiğinde, sistemin yetenekleri baro sınavındaki sonuçların en alt yüzde 10'undan en üst yüzde 10'una yükseldi.

Daha da endişe verici olan, YZ uyum araştırmaları üzerinde çalışan insan sayısının yok denecek kadar az olmasıdır. 2021 Yapay Zekanın Durumu raporu için yaptığımız araştırma, temel AGI laboratuvarlarında bu alanda 100'den az araştırmacının istihdam edildiğini ortaya koydu. Personel sayısının yüzdesi olarak, kaynak tahsisi düşüktü: DeepMind, toplam personel sayısının sadece yüzde 2'sini yapay zeka uyumuna ayırırken; OpenAI'de bu oran yüzde 7 civarındaydı. Kaynakların çoğu YZ'yi daha güvenli değil, daha yetenekli hale getirmeye yönelikti.

Yapay zeka kabiliyeti ile yapay zeka uyumunun mevcut durumu hakkında biraz şöyle düşünüyorum:

Başka bir deyişle, YZ hizalama konusunda çok az ilerleme kaydettik ve yaptıklarımız çoğunlukla kozmetik. Güçlü YZ'nin çıktısını nasıl körelteceğimizi biliyoruz, böylece halk bazı zamanlarda bazı yanlış hizalanmış davranışlarla karşılaşmıyor. (Bu durum, kararlı test uzmanları tarafından sürekli olarak aşılmıştır.) Dahası, kısıtlanmamış temel modellere, hükümetlerin veya akademisyenlerin herhangi bir gözetimi olmaksızın yalnızca özel şirketler erişebilmektedir.

"Shoggoth" meme'i, yapay zekanın sterilize edilmiş kamusal yüzünün ardında yatan bilinmeyeni göstermektedir. HP Lovecraft'ın dokunaçlı canavarlarından birini, üzerine yapıştırılmış dost canlısı küçük bir gülen yüzle tasvir ediyor. Maske - örneğin ChatGPT ile etkileşime girdiğinde halkın etkileşime girdiği şey - "hizalanmış" görünüyor. Ancak bunun ardında yatan şey hala tam olarak kavrayamadığımız bir şey.

Twitter kullanıcıları @TetraspaceWest ve @anthrupad tarafından üretilen memlerden esinlenen bir 'Gülen yüzlü Shoggoth' © Le.BLUE

Bir yatırımcı olarak, diğer yatırımcıları uyumu finanse etmeye ikna etmenin zor olduğunu gördüm. Risk sermayesi şu anda bu sistemlerin nasıl çalıştığını araştırmaktan çok, yetenekleri geliştirme yarışını ödüllendiriyor. 1945 yılında ABD ordusu, bir nükleer silahın ilk patlaması olan Trinity testini gerçekleştirdi. Öncesinde, bombanın Dünya'nın atmosferini tutuşturup yaşamı yok edip etmeyeceği sorusu gündeme geldi. Nükleer fizik o kadar gelişmişti ki Emil J. Konopinski ve Manhattan Projesi'nden diğerleri atmosferi bu şekilde ateşe vermenin neredeyse imkansız olduğunu gösterebildiler. Ancak günümüzün çok büyük dil modelleri büyük ölçüde bilim öncesi bir dönemdedir. Nasıl çalıştıklarını henüz tam olarak anlamış değiliz ve olası sonuçları önceden gösteremiyoruz.

Geçen ayın sonlarında, aralarında Musk, bilim adamı Gary Marcus ve Apple'ın kurucu ortağı Steve Wozniak'ın da bulunduğu 1.800'den fazla imzacı, GPT-4'ten "daha güçlü" sistemlerin geliştirilmesine altı ay ara verilmesi çağrısında bulundu. AGI'nin insanlık için derin riskler oluşturduğunu iddia eden mektup, merhum Stephen Hawking gibi isimlerin geçmişteki uyarılarını yineliyor. Ben de bu mektubu, yarışı yavaşlatmak ve bu sistemleri güvenli hale getirmek için zaman kazanmak adına değerli bir ilk adım olarak görerek imzaladım.

Ne yazık ki mektup başlı başına bir tartışmaya dönüştü. Bazı imzaların sahte olduğu ortaya çıkarken, çalışmalarına atıfta bulunulan bazı araştırmacılar mektuba katılmadıklarını söyledi. Bu karmaşa, yapay zekanın düzenlenmesi konusunda nasıl düşünülmesi gerektiğine dair geniş bir görüş yelpazesini ortaya çıkardı. Tartışmaların çoğu, YZ'nin ne kadar çabuk ortaya çıkacağını düşündüğünüze ve ortaya çıkarsa bunun Tanrı benzeri mi yoksa yalnızca "insan düzeyinde" mi olacağına bağlı.

Modern yapay zekanın temelini oluşturan alandaki çalışmalarıyla 2018 Turing Ödülünü (bilgisayar bilimlerinde Nobel Ödülüne eşdeğer) birlikte paylaşan Geoffrey Hinton, Yoshua Bengio ve Yann LeCun'u ele alalım. Bengio açık mektubu imzaladı. LeCun Twitter'da mektupla alay etti ve endişelerimi dile getiren kişileri "kıyametçiler" olarak nitelendirdi. Kısa bir süre önce CBS News'e AGI'ye olan zaman çizelgesinin kısaldığını, muhtemelen beş yıldan daha az bir süreye indiğini ve yanlış hizalanmış bir YZ'nin elinde insan neslinin tükenmesinin "akıl almaz olmadığını" söyleyen Hinton, ortada bir yerdeydi.

Timnit Gebru tarafından kurulan Distributed AI Research Institute- Yapay Zeka Araştırma Enstitüsü' tarafından yapılan açıklamada mektup şiddetle eleştirildi ve varoluşsal olarak tehlikeli Tanrı benzeri YZ'nin şirketler tarafından dikkat ve sermaye çekmek için kullanılan bir "yutturmaca" olduğu ve "düzenleyici çabaların şeffaflık, hesap verebilirlik ve sömürücü emek uygulamalarını önlemeye odaklanması gerektiği" savunuldu. Bu, YZ topluluğunda potansiyel kıyamet riskinin hesaba katılmadığından korkanlar ile tartışmanın paranoyakça ve dikkat dağıtıcı olduğuna inananlar arasındaki bölünmeyi yansıtıyor. İkinci grup, tartışmanın gerçek ve mevcut zararı gizlediğini düşünüyor: bugün dünya çapında kullanılan birçok YZ programında yerleşik olan önyargı ve yanlışlıklar.

Benim görüşüm, yapay zekanın mevcut ve gelecekteki zararlarının birbirini dışlamadığı ve önemli şekillerde örtüştüğü yönündedir. Her ikisiyle de aynı anda ve acilen mücadele etmeliyiz. Bu alanda şirketler tarafından harcanan milyarlarca dolar göz önüne alındığında, bu imkansız olmamalı. Ayrıca daha fazla ortak zemin bulmanın yollarının bulunabileceğini umuyorum. Yakın zamanda yaptığı bir konuşmada Gebru şunları söyledi: "AGI 'inşa etmeye' çalışmak doğası gereği güvenli olmayan bir uygulamadır. Bunun yerine kapsamı iyi belirlenmiş, iyi tanımlanmış sistemler inşa edin. Bir Tanrı inşa etmeye kalkışmayın." Bu, birçok hizalama araştırmacısının savunduğu şeyle örtüşüyor.

Bu konu hakkında düşünmenin en zorlu yönlerinden biri, hangi emsallerden yararlanabileceğimizi bulmaktır. Düzenleme konusunda bana mantıklı gelen bir benzetme mühendislik biyolojisidir. İlk olarak biyolojik virüsler üzerinde yapılan "işlev kazanımı" araştırmalarını ele alalım. Bu faaliyet sıkı bir uluslararası düzenlemeye tabidir ve laboratuvar biyogüvenlik olaylarından sonra zaman zaman moratoryumlarla durdurulmuştur. Bu en katı gözetim şeklidir. Buna karşılık, yeni ilaçların geliştirilmesi FDA gibi bir hükümet organı tarafından düzenlenir ve yeni tedaviler bir dizi klinik denemeye tabi tutulur. Sistemik risk seviyesine bağlı olarak düzenleme şeklimizde açık farklılıklar vardır. Benim görüşüme göre, Tanrı benzeri YZ sistemlerine işlev kazanımı araştırmalarıyla aynı şekilde yaklaşabilirken, dar anlamda faydalı YZ sistemleri yeni ilaçların düzenlendiği şekilde düzenlenebilir.

YZ'yi iki farklı rejimde düzenlemeye yönelik bir düşünce deneyi, benim Ada adını verdiğim şeydir. Bu senaryoda, Tanrı benzeri YZ sistemleri inşa etmeye çalışan uzmanlar bunu son derece güvenli bir tesiste yaparlar: insanların inşa edebileceği en iyi güvenliğe sahip, hava boşluklu bir muhafaza. Tanrı benzeri YZ inşa etmeye yönelik diğer tüm girişimler yasadışı hale gelir; ancak bu tür YZ kanıtlanabilir şekilde güvenli olduğunda "ada dışında" ticarileştirilebilir.

Bu kulağa Jurassic Park gibi gelebilir, ancak kâr güdüsünü potansiyel olarak tehlikeli araştırmalardan uzaklaştırmak ve bunu hükümetler arası bir kuruluşun eline vermek için gerçek dünyada bir emsal var. Dünyanın en büyük parçacık fiziği laboratuvarını işleten Cern yaklaşık 70 yıldır bu şekilde çalışmaktadır.

Bu çözümlerden herhangi biri, laboratuarlar ve uluslar arasında olağanüstü miktarda koordinasyon gerektirecektir. Bunu başarmak için alışılmadık derecede siyasi irade gerekecek ve bunu şimdi inşa etmeye başlamamız gerekiyor. Büyük laboratuarların çoğu GPT-5 ölçekli modelleri eğitmeye başlayabilmek için bu yıl teslim edilecek kritik yeni donanımları bekliyor. Yeni çipler ve daha fazla yatırımcı parası ile 2024 yılında eğitilen modeller, bugünün en büyük modellerinin 100 katı kadar işlem kullanacak. Ortaya çıkan birçok yeni yetenek göreceğiz. Bu da 2023 yılına kadar hükümetlerin öncü donanıma erişimi düzenleyerek kontrolü ele almaları için bir fırsat olduğu anlamına geliyor.

2012 yılında, tanıdığım en nazik ve en özverili insanlardan biri olan küçük kız kardeşim Rosemary'ye beyin tümörü teşhisi kondu. Bilinen bir tedavisi olmayan agresif bir kanser türüne sahipti ve yine de elinden geldiğince uzun süre doktor olarak çalışmaya devam etmeye çalıştı. Ailem ve ben umutsuzca hayat kurtaran yeni bir tedavinin zamanında gelmesini umuyorduk. Kendisi 2015 yılında vefat etti.

İnsanların neden inanmak istediklerini anlıyorum. Tanrı benzeri yapay zekanın müjdecileri, kanser, iklim değişikliği, yoksulluk gibi en büyük sorunlarımızı çözebilecek insanüstü bir zekanın potansiyeline odaklanıyor.

Öyle olsa bile, uygun yönetişim olmadan devam etmenin riskleri çok yüksek. OpenAI'nin uyum başkanı Jan Leike'nin 17 Mart'ta attığı tweet dikkat çekicidir: "LLM'leri ekonominin her yerine derinlemesine entegre etmek için çabalamadan önce, durup bunu yapmanın akıllıca olup olmadığını düşünebilir miyiz? Bu oldukça olgunlaşmamış bir teknoloji ve nasıl çalıştığını anlamıyoruz. Eğer dikkatli olmazsak, kendimizi birbiriyle ilişkili pek çok başarısızlığa hazırlamış oluruz." Bu uyarı açıklamasını OpenAI'nin GPT-4'ü Slack ve Zapier de dahil olmak üzere çok sayıda araca bağladığını duyurmasından sadece birkaç gün önce yaptı.

Ne yazık ki yarışın devam edeceğini düşünüyorum. Halkı ve hükümetleri uyandırmak için muhtemelen büyük bir kötüye kullanım olayı - bir felaket - gerekecek. Ben şahsen uyum ve güvenliğe odaklanan ya da dar anlamda faydalı YZ geliştiren YZ start-up'larına yatırım yapmaya devam etmeyi planlıyorum. Ancak bu tehlikeli yarışa daha fazla katkıda bulunanlara artık yatırım yapamam. DeepMind ve OpenAI ile benzer araştırmalar yürüten Anthropic'in küçük bir hissedarı olarak bu sorularla boğuştum. Şirket, 2021'de ekibinin yüzde 42'sinin bu alanda çalışmasıyla uyum konusuna önemli ölçüde yatırım yaptı. Ancak nihayetinde aynı yarışa kilitlenmiş durumda. Bu nedenle, hükümetler tarafından önemli düzenlemeler yapılmasını ve bu şirketlerin Cern benzeri bir kuruluşa dönüştürülmesine yönelik pratik bir planı destekliyorum.

Bu yarışı yavaşlatmak için güçsüz değiliz. Eğer hükümette çalışıyorsanız, duruşmalar düzenleyin ve YZ liderlerine yemin altında, Tanrı benzeri YZ geliştirmek için zaman çizelgelerini sorun. Mevcut modelleri test ederken keşfettikleri güvenlik sorunlarının tam bir kaydını isteyin. Bu sistemlerin nasıl çalıştığını anladıklarına ve uyum sağlama konusundaki güvenlerine dair kanıt isteyin. Bu laboratuvarları çapraz sorgulamaları için bağımsız uzmanları duruşmalara davet edin.

Tanrı benzeri bir yapay zeka inşa etmeye çalışan büyük bir laboratuvarda çalışıyorsanız, tüm bu konular hakkında liderliğinizi sorgulayın. Önde gelen laboratuvarlardan birinde çalışıyorsanız bu özellikle önemlidir. Bu şirketlerin daha yakın bir koordinasyon içinde olmaları, hatta çabalarını birleştirmeleri çok değerli olacaktır. OpenAI'nin şirket tüzüğü "birleşme ve yardımlaşma" isteğini ifade ediyor. Şimdi bunun tam zamanı olduğuna inanıyorum. Devlet adamı rolünü oynayan ve bizi daha güvenli bir yola yönlendiren büyük bir laboratuvarın lideri, bizi uçurumun kenarına götürenden çok daha saygın bir dünya figürü olacaktır.

Şimdiye kadar insanlar, YZ'deki ilerlemeyi karakterize eden öğrenme sürecinin gerekli bir parçası olarak kaldılar. Bir noktada, birileri bizi döngüden nasıl çıkaracağını bulacak ve sonsuz kendini geliştirme yeteneğine sahip Tanrı benzeri bir YZ yaratacaktır. O zamana kadar çok geç olabilir.

Ian Hogarth, 13 Nisan 2023, Financial Times

Bu makalenin yazarı bir yatırımcı ve yıllık "State of AI" raporunun ortak yazarıdır.

*Makaledeki ilk tablo, GPT-4 de dahil olmak üzere en güçlü yapay zeka modellerinden bazılarının üreticilerinin artık eğitim veri setlerinin boyutunu veya ayrıntılarını açıklamadığı gerçeğini yansıtacak şekilde yayından bu yana değiştirilmiştir.

(Ian HogarthCambridge mühendislik mezunu 15 milyon müzik hayranı tarafından kullanılan Songkick'in kurucu ortağıdır. Yapay zekaya uzun süredir ilgi duyan, 2004 yılında kanser biyopsi görüntülerini sınıflandırmak için erken bir bilgisayarla görme sistemi kuran. 2014 yılından bu yana, makine öğrenimini ilaç keşfinden iç satışa ve savunmaya kadar çok çeşitli sektörlere uygulayan , Anthropic, Cleo, Chorus AI, Hopin, Helsing ve Kheiron Medical. gibi 50'den fazla start-up'a yatırım yapmıştır. 2018'den bu yana, yapay zekadaki ilerleme hakkında en çok okunan ve erişimi ücretsiz olan yıllık State of AI Report'un ortak yazarıdır. Önde gelen bir kuantum bilişim start-up'ı olan Phasecraft'ın başkanıdır. "Ben Plural'ın bir parçasıyım. Buradaki yatırımlarım teknoloji veya bilimin sınırlarına odaklanma eğiliminde.")

Seçkin Deniz, 12.06.2023, Sonsuz Ark, Çeviri, Çeviri ve Yansımalar


Bilgi Notu: 

AI- Artificial intelligence: Yapay Zeka
AGI- Artificial General Intelligence-:Yapay Genel Zeka (Genel Yapay Zeka)



Sonsuz Ark'tan
  1. Sonsuz Ark'ta yayınlanan yazılardan yazarları sorumludur. 
  2. Sonsuz Ark linki verilerek kısmen alıntı yapılabilir.
  3. Sonsuz Ark yayınları Sonsuz Ark manifestosuna aykırı yayın yapan sitelerde yayınlanamaz.
  4. Sonsuz Ark Yayınlarının Kullanımına İlişkin Önemli Duyuru için lütfen tıklayınız.

Seçkin Deniz Twitter Akışı