Connect with us

Teknoloji

Yapay Zeka Asistanları Haberleri Yanlış Aktarıyor!

Avrupa Yayın Birliği ve BBC’nin araştırması, yapay zeka asistanlarının haber içeriklerini yanlış aktardığını ortaya koydu. Detaylar haberde…

Paylaşan

on

Yapay Zeka Haberleri Doğru Mu Veriyor?

Avrupa Yayın Birliği (EBU) ve BBC’nin ortaklaşa yürüttüğü yeni bir araştırma, popüler Yapay Zeka asistanlarının haber içeriklerini aktarırken sık sık hatalar yaptığını ortaya koydu. Araştırmaya göre, yapay zeka asistanları haberleri neredeyse her iki vakadan birinde yanlış aktarıyor.

Araştırmanın Detayları

14 farklı dilde gerçekleştirilen bu kapsamlı çalışma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi önde gelen yapay zeka asistanlarının performansını değerlendirdi. Bu asistanlara 3 bin farklı haber sorusu yöneltildi ve verilen yanıtlar doğruluk, kaynak gösterme ve görüş-gerçek ayrımı gibi kritik açılardan incelendi.

Ancak sonuçlar pek iç açıcı değil. Yanıtların %45’inde en az bir ciddi hata tespit edilirken, %81’inde ise çeşitli sorunlar saptandı. Bu durum, yapay zeka asistanlarının haber tüketimi konusunda ne kadar güvenilir olduğu sorusunu gündeme getiriyor.

Kaynak Gösterme Sorunu

Çalışmanın en dikkat çekici bulgularından biri, yapay zeka asistanlarının haber kaynaklarını doğru bir şekilde atfetmekte zorlanmasıydı. Yanıtların yaklaşık üçte birinde eksik, yanıltıcı veya hatalı kaynak gösterimi tespit edildi. Özellikle Google’ın Gemini asistanında bu oranın %72’ye kadar yükselmesi dikkat çekti. Diğer platformlarda ise bu oran %25’in altında kaldı.

Ayrıca, incelenen yanıtların yaklaşık %20’sinde güncel olmayan veya yanlış bilgiler yer aldı. Bu da yapay zeka asistanlarının haberleri doğru ve zamanında sunma konusunda ciddi eksiklikleri olduğunu gösteriyor.

Şirketlerden Açıklamalar

Araştırmanın sonuçlarının ardından şirketler de açıklamalarda bulundu. Google, Gemini’nin kullanıcı geri bildirimleriyle sürekli olarak geliştirilmeye devam ettiğini vurguladı. OpenAI ve Microsoft ise yapay zekânın yanlış veya uydurma bilgi üretme sorunu olan “halüsinasyon”u çözmek için çalışmalar yürüttüklerini belirtti. Perplexity ise “Derin Araştırma” modunun %93,9 doğruluk oranına sahip olduğunu iddia ediyor.

Hatalı Örnekler

Araştırmada bazı çarpıcı hatalı örneklere de yer verildi. Örneğin, Gemini’nin tek kullanımlık elektronik sigaralarla ilgili bir yasayı yanlış aktardığı belirtildi. Ayrıca, ChatGPT’nin Papa Francis’in ölümünden aylar sonra hâlâ görevde olduğunu bildirmesi de dikkat çekti.

Bu çalışmaya, Kanada’dan CBC Radio-Canada da dahil olmak üzere Fransa, Almanya, İspanya, Ukrayna, İngiltere ve ABD’den 18 ülkedeki 22 kamu yayın kuruluşu katıldı.

Uzman Görüşü

EBU Medya Direktörü Jean Philip De Tender, araştırmanın sonuçlarına ilişkin yaptığı açıklamada, insanların neye güveneceklerini bilemediklerinde hiçbir şeye güvenmemeye başladıklarını vurguladı. Bu durumun demokratik katılımı olumsuz etkileyebileceğine dikkat çekti.

EBU, yapay zeka şirketlerini haberlerle ilgili yanıtlarında daha şeffaf ve hesap verebilir olmaya çağırıyor. Haber kuruluşlarının hataları tespit edip düzelten süreçleri varsa, aynı sorumluluğun yapay zeka asistanları için de geçerli olması gerektiği belirtiliyor.