Bilim ve teknoloji

Yapay zekâ şirketleri etik dışı yöntemlerle veri topluyor

Son zamanlarda yapay zekâ geliştiricilerinin, internet sitelerinden veri toplamak için yaygın olarak kullanılan "robots.txt" yönergelerini ihlal ettikleri ortaya çıktı.

Abone Ol

Celal Topçu - Diriliş Postası 

Yapay zekâ teknolojilerinin ilerlemesiyle birlikte, bu alanda faaliyet gösteren şirketlerin kendi ürünlerini geliştirmek için geniş veri setlerine ihtiyaç duydukları biliniyor. Bu verileri bulmanın en kolay yolu ise genellikle internet üzerinden sağlanıyor. Ancak internet üzerindeki her veri, yapay zekâ eğitiminde kullanılabilecek uygun bir kaynak olmayabilir. İnternet siteleri, verilerinin hangi koşullarda alınabileceğini belirten "robots.txt" adlı bir dosya ile bu durumu düzenliyorlar.

Reuters'ın haberine göre, birçok yapay zekâ geliştiricisi bu yönergeleri atlayarak internet sitelerinden veri toplamaya devam ediyor. Özellikle "ücretsiz yapay zekâ arama motoru" olarak kendini tanımlayan Perplexity, bu konuda en fazla tepki çeken firmalardan biri olarak öne çıkıyor. Ancak Perplexity'nin yanı sıra, rapora göre OpenAI ve Anthropic gibi firmalar da benzer yöntemlerle çalışıyorlar.

Yapılan raporlara göre, bazı yapay zekâ şirketleri robots.txt dosyalarını dikkate almayıp sitelerden içerik toplamaya devam ediyorlar. Bu durum, şirketler arasında etik sorunlar ve yasal uyumsuzluklar doğurabilir.

robots.txt protokolü aslında 1990'lı yıllardan beri kullanılmakta ancak yasal olarak bağlayıcı değil. Bu nedenle, daha katı ve kapsamlı yeni protokoller oluşturmak, bu tür sorunların çözümüne yardımcı olabilir.

Yapay zekâ şirketlerinin bu tarz uygulamaları, veri gizliliği ve etik kullanımı konusunda daha fazla dikkat çekilmesine sebep oluyor. Gelecekte, bu alandaki düzenlemelerin güçlendirilmesi gerekebilir.