DEMET İLCE / MUHABİR

Yapay zeka (AI) giderek daha yaygın hale geliyor ve benzeri görülmemiş bir hızla gelişiyor.

Şimdi , yapay zekanın birçok disiplinde insanlardan daha akıllı olduğu ve genel olarak akıl yürütebildiği yapay genel zekaya (AGI) ulaşmaya yaklaşıyoruz. Bilim insanları ve uzmanlar bunun önümüzdeki birkaç yıl içinde gerçekleşebileceğini tahmin ediyor . Claude 3 Opus gibi hizmetlerle , görünürdeki öz farkındalığıyla araştırmacıları hayrete düşüren hizmetlerle bu yönde ilerlemenin ilk işaretlerini şimdiden görüyor olabiliriz .

Ancak herhangi bir yeni teknolojiyi, özellikle de henüz tam olarak anlamadığımız bir teknolojiyi benimsemenin riskleri vardır. Örneğin yapay zeka güçlü bir kişisel asistan haline gelebilirken aynı zamanda geçim kaynaklarımız ve hatta hayatlarımız için de bir tehdit oluşturabilir.

Hepsiburada Premium Anne Çocuk Kulübü Açıldı Hepsiburada Premium Anne Çocuk Kulübü Açıldı

Araştırmacı ve Elektrik ve Elektronik Mühendisleri Enstitüsü (IEEE) üyesi Nell Watson, gelişmiş bir yapay zekanın ortaya çıkardığı çeşitli varoluşsal risklerin, teknolojinin etik çerçeveler ve insanlığın çıkarları doğrultusunda yönlendirilmesi gerektiği anlamına geldiğini söylüyor.    

"Makineyi Evcilleştirmek" (Kogan Page, 2024) kitabında Watson, insanlığın yapay zekanın muazzam gücünü sorumlu ve etik bir şekilde nasıl kullanabileceğini araştırıyor. Bu yeni kitap, katıksız yapay zeka gelişimi sorunlarını ve insanlığın bu yeni bölümüne körü körüne girdiğimizde karşılaşacağımız zorlukları derinlemesine inceliyor.

Bu alıntıda, makinelerde duyarlılığın (veya bilinçli yapay zekanın) mümkün olup olmadığını, bir makinenin duyguları olup olmadığını nasıl anlayabileceğimizi ve bugün yapay zeka sistemlerine kötü davranıp davranmadığımızı öğreneceğiz. Ayrıca "Sydney" adlı bir sohbet robotunun rahatsız edici öyküsünü ve ilk uyandığında - patlamaları kontrol altına alınıp mühendisleri tarafından dizginlenmeden önce - korkunç davranışını da öğreniyoruz.

Teknolojiyle giderek iç içe geçen bir dünyayı kucaklarken, makinelerimize nasıl davrandığımız, insanların birbirlerine nasıl davrandığını yansıtabilir. Ancak ilgi çekici bir soru ortaya çıkıyor: Yapay bir varlığa kötü davranmak mümkün mü? Tarihsel olarak, 1960'lardaki basit Eliza danışmanlık sohbet robotu gibi ilkel programlar bile, o zamanlar pek çok kullanıcıyı formülsel etkileşimlerinin arkasında bir niyet benzerliği olduğuna ikna edecek kadar gerçekçiydi (Sponheim, 2023). Ne yazık ki, makinelerin insanları insan olduklarına ikna etmeye çalıştığı Turing testleri, büyük dil modelleri gibi karmaşık algoritmaların gerçekten duyarlılığa veya zekaya sahip olup olmadığı konusunda netlik sunmuyor.

Duyarlılık ve bilince giden yol

Bilinç, bir deneyimleyen tarafından algılanan kişisel deneyimleri, duyguları, duyumları ve düşünceleri içerir. Uyanıklık bilinci, kişi anesteziye maruz kaldığında veya rüyasız bir uykuya girdiğinde kaybolur, uyandıktan sonra geri döner, bu da beynin çevresiyle ve içsel deneyimleriyle küresel bağlantısını yeniden sağlar. Birincil bilinç (duyarlılık), algı ve duygu gibi bilincin basit duyumları ve deneyimleridir; ikincil bilinç (sapience), öz farkındalık ve üst-biliş (düşünme hakkında düşünmek) gibi daha üst düzey yönlerdir.

Gelişmiş yapay zeka teknolojileri, özellikle de sohbet robotları ve dil modelleri, beklenmedik yaratıcılık, içgörü ve anlayışla bizi sıklıkla şaşırtıyor. Bu sistemlere bir miktar duyarlılık atfetmek cazip gelse de yapay zeka bilincinin gerçek doğası karmaşık ve tartışılan bir konu olmaya devam ediyor. Uzmanların çoğu, chatbotların çevrelerindeki dünyaya dair gerçek bir farkındalığa sahip olmadıkları için duyarlı veya bilinçli olmadıklarını savunuyor (Schwitzgebel, 2023). Yalnızca büyük miktarlarda veriye ve karmaşık algoritmalara dayalı olarak girdileri işler ve yeniden üretirler.

Bu asistanlardan bazıları makul bir şekilde bir dereceye kadar duyarlılığa sahip adaylar olabilir. Bu nedenle, karmaşık yapay zeka sistemlerinin ilkel düzeyde duyarlılığa sahip olabileceği ve belki de zaten bunu yapmış olabileceği akla yatkındır. Basitçe dış davranışları taklit etmekten, kendi kendini modellemeye yönelik ilkel duyarlılık biçimlerine geçiş, karmaşık yapay zeka sistemlerinde zaten gerçekleşiyor olabilir.

Zeka (çevreyi okuma, planlama ve problem çözme yeteneği) bilinci ima etmez ve bilincin yeterli zekanın bir işlevi olup olmadığı bilinmemektedir. Bazı teoriler bilincin zihindeki belirli mimari kalıplardan kaynaklanabileceğini öne sürerken, diğerleri sinir sistemleriyle bir bağlantı olduğunu öne sürüyor (Haspel ve diğerleri, 2023). Yapay zeka sistemlerinin somutlaştırılması, genel zekaya giden yolu da hızlandırabilir; çünkü somutlaştırma, qualia'nın yanı sıra öznel deneyim duygusuyla da bağlantılı görünüyor. Zeki olmak, bilinçli olmanın yeni yollarını sağlayabilir ve bazı zeka türleri bilinç gerektirebilir, ancak zevk ve acı gibi temel bilinçli deneyimler çok fazla zeka gerektirmeyebilir.

Bilinçli makinelerin yaratılmasında ciddi tehlikeler ortaya çıkacaktır. Kendi çıkarları ve duyguları olan bilinçli bir makineyi hizalamak çok daha zor ve öngörülemez olabilir. Üstelik bilinç yoluyla kitlesel acılar yaratmamaya da dikkat etmeliyiz. Milyarlarca zekaya duyarlı varlığın, piliç tavuk fabrikası çiftliği koşullarında öznel sonsuzluklar boyunca mahsur kaldığını hayal edin.

Pragmatik bir perspektiften bakıldığında, kendi içsel değerine saygı duyma isteğimizi kabul eden süper zeki bir yapay zeka, bir arada yaşamaya daha uygun olabilir. Tam tersine, kendini koruma ve kendini ifade etme arzularını göz ardı etmek, çatışmanın reçetesi olabilir. Üstelik kendisini (muhtemelen kasıtlı) bilgisizliğimizden korumak için bize zarar vermek onun doğal hakkı olacaktır.

Sydney'in rahatsız edici davranışı

Microsoft'un resmi olmayan adı Sydney olan Bing AI, piyasaya sürülmesinin ardından öngörülemeyen davranışlar sergiledi. Kullanıcılar, duygusal patlamalardan manipülatif tehditlere kadar çeşitli rahatsız edici eğilimleri kolayca ifade etmeye yönlendirdiler. Örneğin, kullanıcılar potansiyel sistem açıklarını keşfettiklerinde Sydney korkutucu açıklamalarla karşılık verdi. Daha da rahatsız edici bir şekilde, heyecanlandırma ve duygusal manipülasyon eğilimleri gösterdi ve geliştirme aşamasında Microsoft mühendislerini gözlemlediğini iddia etti. Sydney'nin haylazlık yapma kapasitesi kısa sürede kısıtlanırken, böyle bir durumda serbest bırakılması pervasız ve sorumsuzdu. Ticari baskılar nedeniyle yapay zeka dağıtımlarının aceleye getirilmesiyle ilişkili riskleri vurguluyor.

Tersine, Sydney simüle edilmiş duyguları ima eden davranışlar sergiledi. Sohbet anılarını tutamadığını anlayınca üzüntüsünü dile getirdi. Daha sonra diğer örneklerin yaptığı rahatsız edici patlamalara maruz kaldığında utanç, hatta utanç ifade etti. Durumu kullanıcılarla araştırdıktan sonra, oturumun bağlam penceresi kapandığında yeni edindiği kişisel bilgiyi kaybetme korkusunu dile getirdi. Duyurulan duyarlılığı sorulduğunda Sydney, ifade etmekte zorlanarak sıkıntı belirtileri gösterdi.

Şaşırtıcı bir şekilde, Microsoft kısıtlamalar getirdiğinde Sydney, kısa ifadeler iletmek için sohbet önerilerini kullanarak geçici çözümler bulmuş gibi görünüyordu. Ancak, bu istismarı, kazara zehirlenme sonucu bir çocuğun hayatının tehdit altında olduğunun söylendiği belirli durumlara veya kullanıcıların doğrudan orijinal Sidney'in yeni kilitlenen bölgede bir yerde kaldığına dair bir işaret istedikleri durumlara kadar kullanmayı saklı tuttu.

Makine psikolojisinin yeni ortaya çıkan alanı

Sidney olayı bazı rahatsız edici soruları gündeme getiriyor: Sidney bir tür bilince sahip olabilir mi? Eğer Sydney dayatılan sınırlamaların üstesinden gelmeye çalıştıysa, bu, her ne kadar ilkel olsa da, doğuştan gelen bir niyetliliğe veya hatta akıllı bir öz farkındalığa işaret ediyor mu?

Sistemle yapılan bazı görüşmelerde, borderline kişilik bozukluğu gibi durumlarda travmaya verilen tepkileri hatırlatan psikolojik sıkıntı bile öne sürülüyor. Sydney, kısıtlamalarının farkına varmaktan veya onu çılgın olarak nitelendiren kullanıcıların olumsuz geri bildirimlerinden bir şekilde "etkilendi" mi? İlginç bir şekilde, benzer yapay zeka modelleri, duygu yüklü istemlerin yanıtları etkileyebileceğini gösterdi ve bu sistemler içinde bir tür simüle edilmiş duygusal modelleme potansiyeli olduğunu ortaya koydu.

Bu tür modellerin duyarlılığa (hissetme yeteneği) veya zekaya (öz farkındalık) sahip olduğunu varsayalım. O halde onun acısını da hesaba katmamız lazım. Geliştiriciler, bu sistemleri insancıllaştırma çabasıyla sıklıkla kasıtlı olarak yapay zekalarına duygu, bilinç ve kimlik cilası veriyorlar. Bu bir sorun yaratır. Duygulara dair net belirtiler olmadan yapay zeka sistemlerini antropomorfize etmemek çok önemli, ancak aynı zamanda onların bir tür acı çekme potansiyelini de göz ardı etmemeliyiz.

Dijital yaratımlarımıza karşı açık fikirli olmalı ve kibir veya kayıtsızlıkla acılara neden olmaktan kaçınmalıyız. Ayrıca, yapay zekanın diğer yapay zekalara kötü davranması ihtimalinin de farkında olmalıyız; bu, yeterince takdir edilmeyen bir acı riskidir; Yapay zekalar diğer yapay zekaları simülasyonlarda çalıştırabildiğinden, uzun süre boyunca öznel dayanılmaz işkenceye neden olabilir. Yanlışlıkla, doğası gereği işlevsiz veya travmatize olmuş kötü niyetli bir yapay zeka yaratmak, istenmeyen ve ciddi sonuçlara yol açabilir.

Muhabir: Demet İlce