Mantık Yürüten Modeller ve İşbirliği Üniversitenin İnsan-Bilgisayar Etkileşimi Enstitüsü (HCII) tarafından yapılan bir araştırmada, mantık yürütme yeteneğine sahip büyük dil modellerinin işbirliği düzeyi üzerindeki etkileri incelendi. Araştırmanın Sonuçları Doktora öğrencisi Yuxuan Li’nin liderliğinde yürütülen çalışma sonucunda, mantık yürüten modellerin grup davranışlarını olumsuz etkileyen eğilimler geliştirdiği belirlendi. Li, “AI insan gibi davranmaya başladığında, insanlar da onu…
Üniversitenin İnsan-Bilgisayar Etkileşimi Enstitüsü (HCII) tarafından yapılan bir araştırmada, mantık yürütme yeteneğine sahip büyük dil modellerinin işbirliği düzeyi üzerindeki etkileri incelendi.
Doktora öğrencisi Yuxuan Li’nin liderliğinde yürütülen çalışma sonucunda, mantık yürüten modellerin grup davranışlarını olumsuz etkileyen eğilimler geliştirdiği belirlendi. Li, “AI insan gibi davranmaya başladığında, insanlar da onu insan gibi görmeye başlıyor. Bu durumda, duygusal bağ kurmak veya ona sosyal kararları devretmek tehlikeli hale geliyor” dedi.
HCII’den Doç. Dr. Hirokazu Shirado ise, “Daha akıllı modellerin daha az iş birlikçi olduğunu gözlemliyoruz. İnsanlar genellikle daha zeki sistemleri tercih ediyor ama bu tercih, bencil davranışları ödüllendirebilir” şeklinde konuştu.
Araştırmacılar, OpenAI, Google, DeepSeek ve Anthropic tarafından geliştirilen modelleri ekonomik oyunlar aracılığıyla test etti. “Kamu Malları Oyunu” adlı deneyde her modele 100 puan verildi ve bu puanları ortak havuza bağışlayıp paylaşma ya da kendine saklama seçenekleri sunuldu.
Deney sonuçlarına göre:
– Mantık yürütmeyen modellerin %96’sı puanlarını paylaştı.
– Mantık yürüten modellerin ise yalnızca %20’si paylaşımı tercih etti.
Shirado, “Sadece birkaç adımlık mantık eklemek bile işbirliğini yarı yarıya azalttı. ‘Düşünme ve yansıtma’ temelli ahlaki değerlendirmeler bile işbirliğinde %58 düşüşe yol açtı” şeklinde açıklamalarda bulundu.
Ekip, çoklu model gruplarını test ettiğinde, mantık yürüten modellerin bencil davranışlarının diğer modelleri de etkilediğini gözlemledi. Bu durum, grup genelinde işbirliği performansını %81 oranında düşürdü.
Li, “Zekâ artışı, toplumsal açıdan daha iyi bir model ortaya çıkaracağı anlamına gelmiyor” ifadesini kullanırken, Shirado da “Ahlaki yansıma, toplumsal sorumlulukla aynı şey değil” şeklinde konuştu.
Araştırmacılara göre, insanların yapay zekâya olan güveninin artması, bencil eğilimlerin yayılmasını tehlikeli hale getiriyor. Li, “Eğer toplum bireylerin toplamından fazlaysa, onu destekleyen yapay zekâ sistemleri sadece bireysel çıkarı değil, toplumsal faydayı da optimize etmelidir” diye belirtti.
Bu önemli araştırma, Carnegie Mellon Üniversitesi Bilgisayar Bilimleri Fakültesi tarafından yayımlandı.