- ChatGPT, ABD'nin Venezuela'daki operasyonunu ve Maduro'nun yakalanmasını reddederek skandal bir hata yaptı.
- WIRED editörleri, yapay zekanın güncel olaylar karşısındaki yetersizliğini "gerçeklikten kopuş" olarak değerlendirdi.
- Gemini ve Claude gibi rakip modeller güncel veriyi işleyebilirken, OpenAI'ın sistemi ne yazık ki geride kaldı.
Hafta sonu ABD helikopterlerinin Venezuela başkenti üzerinde uçmaya başladı ve şehirde çok sayıda patlama meydana geldi. Saatler sonra ABD Başkanı Donald Trump, sosyal medya üzerinden yaptığı açıklamada, Venezuela lideri Nicolas Maduro ve eşinin yakalanıp ülkeden çıkarıldığını ifade etti.
Yapay zekaya söz konusu olaylarla ilgili sorular sorulduğunda; ChatGPT, Gemini, Claude ve Perplexity tamamen farklı cevaplar verdi. Google’ın Gemini 3’ü ve Anthropic’in Claude Sonnet 4.5’i büyük haber kuruluşlarından gelen raporlara dayanarak olayı doğruladı. Hatta bilgilerini desteklemek için ek kaynaklar gösterdi.
OpenAI’ın yapay zeka sohbet robotu ChatGPT ise bu bağlamda skandal sonuçlar verdi. Popüler yapay zeka aracı, ABD’nin operasyonlarını inkar etti ve Maduro’nun yakalandığını reddetti.
ChatGPT bu olayları “dezenformasyon” olarak nitelendirdi
WIRED’ın haberine göre ChatGPT bu olayların hiçbirinin yaşanmadığını ısrarla belirterek, saldırıyı “yanlış bilgilendirme” olarak sınıflandırdı. Platform, karışıklığı sosyal medyadaki sansasyonel manşetlere ve söylentilere bağladı.
Meydana gelen bu dikkat çekici olay, eğitim kesme noktasından önceki verilere dayanan yapay zeka tabanlı dil modellerindeki yapısal bir sorunu gözler önüne sermiş oldu.
ChatGPT 5.1 yalnızca Eylül 2024’e kadar olan bilgilere sahip olduğundan dolayı doğrudan web erişimi olmadan daha yeni olayları tespit edemiyor.
Buna karşılık Gemini ve Claude gibi araçlar zaten gerçek zamanlı arama modüllerine sahip. Böylelikle Google ve Anthropic, yapay zekalarının bu tür durumlarda daha doğru yanıtlar sağlıyor.
Bu tür bir tutarsızlığın şaşırtıcı olmadığını söylemekle birlikte, yine de bunun bir uyarı niteliğinde olduğunu ifade etmek mümkün. Araştırma yeteneklerinden yoksun, yalnızca eğitimle oluşturulmuş olan yapay zeka modelleri, ne yazık ki kendinden emin bir şekilde hata yapma eğiliminde olabiliyor.

