Microsoft, bu hafta, yapay zeka (AI) modellerinin yanlış beyanlarını düzeltmeye yardımcı olacağını iddia ettiği yeni bir yapay zeka özelliğini tanıttı. "Düzeltme" yeteneği, AI çıktılarındaki hataları tespit edip düzeltmek üzere tasarlandı.

Şirket, AI halüsinasyonlarını gerçek zamanlı olarak, "üretken AI uygulamalarını kullanan kullanıcılar bu hataları görmeden önce" düzelteceklerini açıkladı. Microsoft sözcüsü, bu özelliği "ilk kez sunulan bir yenilik" olarak nitelendirdi.

Bu yeni özellik, bir yanıtın hatalı kısımlarını tarayıp vurgulayarak çalışıyor. Ardından, yanlış bölümün neden hatalı olduğu hakkında bir yanıt oluşturabiliyor ve bu bölümü düzeltmek için üretken AI kullanarak, "yeniden yazılmış içeriğin, bağlı veri kaynaklarıyla daha iyi uyum sağlamasını" sağlıyor.

AI modelleri, geniş veri setleri üzerinde eğitildiği için tahminler yapabilir; ancak "halüsinasyon" olarak adlandırılan durumlarda yanlış veya yanıltıcı ifadeler de üretebilir. Bu, eksik veya taraflı eğitim verilerinden kaynaklanabilir.

Hollanda Stratejik Araştırmalar Merkezi'nden stratejik analist Jesse Kommandeur, bu durumu bir pastayı tam tarife olmadan pişirmeye benzetiyor. AI, edindiği eksik bilgilerle "sonucu" (metin veya karar gibi) "pişirmeye" çalışıyor.

Bu devasa gök cismi, ikinci bir Dünya olabilir Bu devasa gök cismi, ikinci bir Dünya olabilir

Yeni Araç Yanlışları Düzeltir Mi?

New York Üniversitesi'nden Vasant Dhar, üretken AI'nın düşünme ve planlama yeteneği olmadığını, yalnızca girdilere sıralı olarak yanıt verdiğini vurguladı. Bu nedenle, yeni düzeltme özelliğinin halüsinasyonları azaltacağını belirtse de, tamamen ortadan kaldırmanın mevcut mimari ile mümkün olmadığını ifade etti.

Microsoft'un düzeltme özelliği hakkında yapılan değerlendirmelere göre, bu teknoloji hala evrim aşamasında ve sınırlamaları olabilir. Kommandeur, Microsoft'un doğrulamak için herhangi bir sayısal veri sunmadığını da belirtti.

Microsoft, halüsinasyonların tıbbi gibi yüksek riskli alanlarda AI modellerinin önünü tıkadığını kaydediyor. Dhar, "Tüm bu teknolojiler, şirketlerin ürünlerinde kademeli iyileştirmeler yapmaya devam ettiği bir aşamadır" dedi.

Uzun vadede, AI yatırımlarının, halüsinasyonlar nedeniyle yanıltıcı bilgi ve hatalı kararlar gibi sorunlara yol açabileceği konusunda uyarılarda bulunuldu. Ancak kısa vadede, büyük dil modellerinin (LLM) birçok insan için günlük yaşamda sağladığı verimlilik, halüsinasyonların kabul edilebilir bir durum olarak görülmesine neden oluyor.

Kaynak: Haber Merkezi