Bugün sizlere ülkemizde sınırlı çevreler dışında pek duyulmayan 2023 yılına ait bir gelişmeyi aktarmak istiyorum.

Yaşamın Geleceği Enstitüsü 2023’ün mart ayında dünya kamuoyuna ‘Büyük Yapay Zekâ Deneylerini Durdurun: Açık Mektup’ başlıklı bir metin yayınladı. Buna göre, gezegen üzerinde yaşayan herkesin varoluşunu ilgilendiren büyük bir tehlike ile karşı karşıyaydık.

Gelin, mektubun içeriğinden önce Yaşamın Geleceği Enstitüsü (Future of Life Institute) nasıl bir kuruluş biraz ona değinelim.

Enstitü, 2014 yılında kâr amacı gütmeyen bir araştırma kurumu olarak kurulmuş.

Kurucular arasında Skype’ın ortağı Estonyalı milyarder Jaan Tallinn, MIT üniversitesinden İsveç kökenli Amerikalı fizikçi ve makine öğrenimi araştırmacısı Maks Tegmark, California Üniversitesi’nden kozmolog Anthony Aguirre, Google’ın yapay zekâ şirketi DeepMind’ın araştırmacısı Victoria Krakovna gibi isimler yer alıyor.

Elon Musk da enstitünün danışmanları arasında ve kuruma milyonlarca dolar bağışlamış.

Enstitü misyonunu “teknolojiyi, hayata fayda sağlamaya ve aşırı büyük ölçekli risklerden uzak tutmaya yönlendirmek” olarak tarif ediyor.

Bu çerçevede Yaşamın Geleceği Enstitüsü’ne göre günümüzde üç büyük riskten endişe duymak gerek. Bunlar yapay zekâ, biyoteknoloji (yani canlı organizmalara yönelik teknolojiler) ve nükleer silahlar.

O yüzden hayatımızı dönüştüren bu teknolojilerin geliştirilmesi, kullanımı ve nasıl idare edileceği konusu ihmale gelmemeli.

Gelelim enstitünün yayınladığı mektuba. Adından da anlaşılacağı üzere mektup enstitünün riskler arasında ilk sırayı verdiği yapay zekâ hakkında.

Mektubun altında imzası bulunanlar, kullanmakta olduğumuz en gelişmiş yapay zekâ aracı GPT-4’ten daha ileri yapay zekâ deneyleri yapan tüm laboratuvarları altı aylığına çalışmalarını durdurmaya davet ettiler.

Gerekçeleri de öyle yenilir yutulur cinsten şeyler değildi.

Mektuba göre, insanla rekabet edebilecek derecede yüksek zekâya sahip yapay zekâ sistemleri toplum ve insanlık için büyük riskler oluşturabilirdi. Genel olarak imzacılar bunu ‘varoluşsal risk’ olarak adlandırmayı tercih ediyorlar.

Mektupta yapay zekâya azıcık merak duyan herkesin kafasını karıştıracak hatta yüreğini hoplatacak türden şöyle ifadeler yer alıyor: “Son aylarda yapay zekâ laboratuvarları çok güçlü dijital zihinler oluşturma yarışında. Fakat geliştirenler de dâhil olmak üzere kimse bunların nasıl çalıştığını tahmin edemiyor ve güvenilir şekilde kontrol edemiyor.”

Mektupta çok önemli sorular da soruluyor. Makinelerin bilgi kaynaklarımızı gerçek olmayan şeylerle ya da propaganda ile doldurmasına izin vermeli miyiz? Tüm işleri makinelere mi bırakmalıyız? Sonunda sayı ve zekâ olarak bizi geçecek, bizi işlevsiz hâle getirip yerimizi alacak insan olmayan zihinler geliştirmeli miyiz? Medeniyetimizin kontrolünü yitirme gibi bir riski almalı mıyız?"

Duraklama, yapay zekânın ortaya çıkarabileceği varoluşsal risklere daha fazla odaklanılmasına, yapay zekânın düzgün bir şekilde nasıl geliştirilebileceğine daha fazla kafa yorulmasına imkân sağlayabilirdi.

Bu kaygılar ve soru işaretlerinden dolayı yapay zekâ çalışmalarına ancak risklerin kontrol edilebilir olması hâlinde ve olumlu sonuçlar çıkacağına emin olunduktan sonra devam edilmeliydi.

Mektupta yapay zekâ laboratuvarlarından bu süre içerisinde güvenlik protokolleri geliştirilmesi talep edildi; hatta daha da ileri gidilerek laboratuvarlar durmadığı takdirde hükûmetlerin devreye girip müdahil olması istendi.

İmzacılara göre hedef; daha güvenli, şeffaf, sağlam, değerlerle uyumlu bir yapay zekâ olmalıydı.

Bu satırlar kaleme alınırken hâlâ daha kamuya açık olan mektubun altında 33 bin 707 kişinin imzası bulunuyordu.

Bu kişilerin arasında Elon Musk, Apple’ın kurucusu Steve Wozniak, tarihçi Yuval Harari, Amerikalı siyaset bilimci Danielle Allen, Avustralyalı filozof Huw Price ve Nobel ödüllü iktisatçı Daron Acemoğlu gibi isimler de var.

Mektubun üzerinden yaklaşık 20 ay geçmesine rağmen herhangi bir yapay zekâ şirketi çalışmalarını durdurmuş ya da herhangi bir devlet meseleye müdahil olmuş değil.

Öyleyse ileri gelen bilim insanlarından felsefeci ve siyasetçilere, teknoloji girişimcilerinden yatırımcılara kadar pek çok insanın altında imzasının yer aldığı bu mektup neden hayata geçirilmedi?

İnsanlığın varoluşunun tehlikede olduğuna dair çok önemli bir iddiada bulunan böylesi bir mektuba rağmen yapay zekâ laboratuvarları çalışmalarına neden ara vermedi?

Mektubun ikna edici olmaması akla ilk gelecek sebeplerden birisi olabilir.

Duraklama talebinin önemli gerekçelerinden birisini, günümüz yapay zekâ sistemlerinin genel görevlerde artık insanlarla rekabet edebilir hâle geldiği iddiası oluşturuyor mesela.

Oysa GPT-4 gibi sistemler ne kadar gelişmiş olurlarsa olsunlar, mektupta ifade edildiği şekliyle bir “insan olmayan dijital zihin” değiller.

GPT-4 benzeri araçlar zor görevleri yerine getirebilseler de insanoğlunun sahip olduğu bilişsel/zihinsel yeteneklerin tamamına sahip olmaktan; yani bir bilinçten şimdilik çok uzaktalar.

Sonuçta, yapay zekânın varoluşsal risk oluşturacak kadar geliştiği iddiası karşılık bulmuş gibi görünmüyor.

Yine de bana kalırsa derin bir oh çekerek rahatlayacak durumda değiliz.

Mektupta yer alan iddiaları başka bir açıdan tartışmamız gerekiyor.

Yerimiz kalmadığı için haftaya inşallah…