Yapay Zeka Asistanlarının Doğruluk ve Kaynak Gösterme Yetenekleri Değerlendirildi 14 farklı dilde yapılan bir araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları detaylı bir şekilde inceledi. Araştırma, doğruluk, kaynak gösterme ve görüş-gerçek ayrımı açısından yapılan değerlendirmeler sonucunda dikkat çekici bulgular ortaya koydu. Yapay Zeka…
14 farklı dilde yapılan bir araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları detaylı bir şekilde inceledi. Araştırma, doğruluk, kaynak gösterme ve görüş-gerçek ayrımı açısından yapılan değerlendirmeler sonucunda dikkat çekici bulgular ortaya koydu.
Araştırmanın sonuçlarına göre, incelenen yanıtların %45’inde en az bir ciddi hata tespit edildi. Ayrıca, yanıtların %81’inde herhangi bir türde sorun belirlendi. Özellikle yapay zeka asistanlarının haber kaynaklarını doğru şekilde atfetmekte zorlandığı görüldü. Yanıtların üçte birinde eksik, yanıltıcı veya hatalı kaynak gösterimi bulundu. Google’ın Gemini asistanında bu oran %72’ye kadar yükselirken, diğer platformlarda bu oran genellikle %25’in altında kaldı.
Google, Gemini asistanını kullanıcı geri bildirimleriyle geliştirmeye devam ettiğini belirtirken, OpenAI ve Microsoft yapay zekanın yanlış veya uydurma bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini açıkladı. Perplexity ise ‘Derin Araştırma’ modunun %93,9 doğruluk oranına sahip olduğunu iddia etti.
Araştırmada, Gemini’nin tek kullanımlık elektronik sigaralarla ilgili bir yasayı yanlış aktardığı, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hâlâ görevde olduğunu bildirdiği örnekler yer aldı. Çalışmaya Kanada, Fransa, Almanya, İspanya, Ukrayna, İngiltere ve ABD’den 18 ülkedeki 22 kamu yayın kuruluşu katıldı.
EBU Medya Direktörü Jean Philip De Tender, araştırmanın sonuçlarına ilişkin yaptığı açıklamada, insanların güvenilir kaynaklara sahip olmadığında hiçbir şeye güvenmemeye başladığını ve bu durumun demokratik katılımı olumsuz etkileyebileceğini belirtti. EBU, yapay zeka şirketlerini haberlerle ilgili yanıtlarında daha şeffaf ve hesap verebilir olmaya çağırarak, haber kuruluşlarının hataları tespit edip düzelten süreçlerinin yapay zeka asistanları için de geçerli olması gerektiğini vurguladı.