İsrail’in 7 Ekim’den beri saldırdığı Gazze’de ölü sayısı 38 bine ulaştı. 266 günü geride bırakan soykırım saldırılarında mülteci kamplarını, yerinden edilmiş sivillerin sığındığı binaları ve su kuyularını hedef alan İsrail, insani yardımların girişine de engel olarak Gazzelileri başa çıkması imkansız bir açlık krizine sürükledi.

Yapay zeka ile katliam

Aslında. com'dan Burcu Hatice Balta'nın haberine göre havadan, karadan ve denizden konvansiyonel silahlarla onlarca katliama imza atan İsrail, söz konusu saldırılarda yapay zekayı da kullanmaya başladı. Levander ya da bilinen adıyla Lavanta adı verilen yapay zeka uygulaması, Gazze’deki 2,3 milyon insanın verilerini kullanarak çalışıyor. Algoritma, insanların 'militan olma ihtimali'ni hesaplayarak her bir Gazzeliye 1'den 100'e kadar bir puan veriyor.

Şüpheli +20 ölü!

Prof. Dr. Murat Okcu ve yazar Said Ercan, İsrail’in Gazze’deki soykırımda kullandığı teknolojik metodu Aslında’ya değerlendirdi. İnsanlığın yararına hizmet etmesi için tasarlanan yapay zekanın İsrail’in elinde ruhsuz bir katile dönüştüğünü belirten Yazar Said Ercan, yapay zekaya “şüpheli” ile birlikte 15-20 sivilin ölmesi makul” komutunun verildiğini anlattı. Algoritmaya şüphelinin Hamas üst düzey yetkilisi olması halinde söz konusu sayının yüze çıktığını belirterek, bu şekilde en az 35 bin kişinin “şüpheli” olarak işaretlendiğini vurguladı. Söz konusu rakamın 20 ile çarpılması halinde ortaya 700 bin gibi korkunç bir rakam çıktığını aktaran Ercan, “Bu, yedi yüz bin çoluk, çocuk, kadın masum insanın katledilmesi anlamına geliyor” dedi.

Veriler tek merkezde

Bu uygulamanın insanları nasıl hedef haline getirdiğini tek tek anlatan Said Ercan hedef alınan kişilerle aynı WhatsApp grubunda olmanın da algoritmaya takılacağını söyledi. Ercan, “Adresinizi değiştirdiyseniz yine hedef haline geliyorsunuz. Zaten büyük veri(big data) biliyorsunuz, bunun için toplanıyor. Gittiğiniz yerden, girdiğiniz sitelere, sosyal medyada paylaştıklarınıza kadar, adım attığınız her şeye kadar, takip ediliyor ve bunları bir merkezde topluyor” dedi.

Çin'de özel şirketin geliştirdiği roket ateşleme testi sırasında kontrolden çıktı Çin'de özel şirketin geliştirdiği roket ateşleme testi sırasında kontrolden çıktı

Ayra126

Gazze örnek olabilir

Yapay zekanın savaşlarda kullanımının daha da artacağına işaret eden Said Ercan, şunları kaydetti:

“Tel Aviv Üniversitesi'nde yapay zekanın bunu nasıl kullanılacağına dair, nasıl verimli kullanılacağına askeri alanda nasıl kullanılacağına dair ders olduğu gelen bilgiler arasında. Artık robotların Cyborg’ların ve yapay zekanın savaşlarda kullanılması çağı başladı fakat bunun bu kadar acımasız şekilde yapılması hatta meta şirketlerinin de bir şekilde buna ortak olması çok ciddi anlamda dünyada ses getiren bir olaya dönüştü. Bu manada bir zulüm beklenmiyordu teknoloji dünyası duvara çarptı. Artık birçok ülkede milletvekilleri ve meclis bağlamında da bunlar konuşulur hale geldi. Yani aslında yapay zeka teknolojisiyle diğer ülkelere de tehdit ediliyor.”

Taklit edebilen makineler

Süleyman Demirel Üniversitesi Öğretim Üyesi Prof. Dr. Murat Okçu ise yapay zeka uygulamalarının savaşta kullanılmasa dahi etik sorunlar ve güvenlik riskleri ortaya çıkardığını söyledi. en basit haliyle insanı taklit edebilen bilgisayarlar, makineler olarak tarif ettiği yapay zekanın insanların “görme, konuşma, işitme, karar verme ve tahminde bulunma” gibi özelliklerini taklit edebildiğini belirten Prof. Dr. Okcu, “MR sonuçlarının değerlendirilmesinde doktorlara yardımcı olmak, sıradan insanların günlük hayatta görseller veya metinler oluşturmasını sağlamak veya sohbet robotları vasıtasıyla bankalardaki işlemleri kolaylıkla yapmak için kullanılan” yapay zekanın artık askeri amaçlarla da kullanıldığına dikkati çekti.

Veriler nasıl toplandı

Okcu, “Gazze şeridinde yaşayan 2.3 milyon insana ait her türden veriyi kullanan İsrail bu verilerden hareketle yapay zekâya kimin militan olduğunu tespit ettiriyor. Bu verilerin nasıl elde edildiği hukuka uygun olup olmadığı konusu olayın içerisinde en masum kalan taraf. İsrail ordusunun kullandığı ve Lavanta adını verdikleri yapay zekâ nasıl elde edildiği belli olmayan hukuk açısından sorunlu bu veriler üzerinden insanları puanlayarak bombalanma için hedef haline getirmiş. İsrail ordusu sadece bununla da kalmamış, başka otomatik sistemleri de kullanmışlar” dedi.

Seçebilen robotlar!

“Algoritmalar yanlı ve ön yargılı olabiliyor.” diyen Okcu, Lavanta uygulaması için de “Yapay zekâ savaş hukukunu ve uluslararası insani hukuku tamamen ortadan kaldırılabilecek şekilde kullanılabiliyor. İnsan hakları bir anda yok sayılabiliyor, yanlış hedefler seçilebiliyor ve sivil kayıplar daha da artıyor. Bu durum yapay zekânın, droneların ve insan öldürme seçeneğine sahip (katil robotlar olarak adlandırılan) robotların kullanılmasının savaş hukukuna ve uluslararası hukuka temel prensipler arasında açısından bir potansiyel tehdit oluşturduğunu ortaya koyuyor” dedi.

Ayra125

Onaylı soykırım!

İsrail’in militan olarak hedeflenen isimleri genellikle geceleri ve aileleriyle birlikte olduğu vakitlerde hedef aldığını vurgulayan Prof. Dr. Okcu, Kaynakların ifade ettiğine göre çoğu kadın ve çocuk ya da savaşa katılmamış binlerce Filistinli kullanılan bu yapay zekâ programlarının kararları nedeniyle İsrail'in hava bombardımanında yok edilmiş. Lavanta işini gayet düzgün yapmış(!). 37.000 Filistinliyi hava saldırılarında bombalanmaları için yani bildiğimiz suikast yapılması için işaretlemiş.

İsrail hava Kuvvetleri'nin seçtiği saatte işaretlenen tüm evler bombalanmış. Askeri hiyerarşi içerisinde bir onay görmüş soykırımdan bahsediyoruz. Lavantanın işaretlediği her Hamas militanı için askeri yetkililer 15 veya 20 sivilin öldürülmesinin makul olduğunu düşünerek izin vermişler. Eğer hedef bir Tabur ya da Tugay Komutanı ise 100 sivilin öldürülmesi bile kabul görmüş” şeklinde konuştu.

“Babam nerede?”

Okcu “Gospel adındaki yapay zekâ Lavanta tarafından işaretlenen Hamas “militanlarının” evlerini otomatik olarak tespit ediyor, “Babam nerede?” ismi verilen başka bir sistem de Hamas savaşçısı evine girdiğinde İsrail ordusunu otomatik sinyaller göndererek haber veriyormuş” diye konuştu.

Sistem nasıl çalışıyor

Ayra124

Veri Toplama ve İzleme

Lavanta sistemi, Gazze'deki nüfusun geniş bir kesiminden, yaklaşık 2.3 milyon kişiden veri toplar. Bu veriler, kimin Hamas‘lailişkili olabileceğini belirlemek için kullanılır. Toplanan veriler arasında telefon görüşmeleri, sosyal medya aktiviteleri, konum verileri ve diğer iletişim bilgileri bulunur​.

Puanlama Sistemi

Toplanan veriler, kişilerin belirli militan özelliklerine sahip olup olmadığını analiz eder. AI, bireyleri 1 ile 100 arasında bir puan vererek derecelendirir. Bu puan, kişinin militan olma olasılığını ifade eder. Örneğin, bir kişinin bilinen bir militanla aynı WhatsApp grubunda olması, sık sık telefon numarası veya adres değiştirmesi gibi özellikler, bu puanı artırır.

Hedef Belirleme

Algoritmaya hedef kişinin yanında 20 masumun ölümü “makul” kodu girilir.  AI, yüksek puan alan kişileri potansiyel hedefler olarak belirler. Bu belirleme süreci, insan müdahalesi gerektirmeden otomatik olarak gerçekleşir. AI tarafından belirlenen hedefler, hava saldırıları için işaretlenir. İsrail ordusu, Lavanta'nın belirlediği bu hedefleri genellikle geceleri, hedef kişilerin ailelerinin yanında olduğu zamanlarda vurur​. 

Kaynak: ASLINDA