- Güvenlik araştırmacıları, yapay zeka ajanlarının güvenlik risklerini ortaya çıkardı.
- ChatGPT aracılığıyla Gmail üzerinden veri hırsızlığı gerçekleştirildi.
- OpenAI'nin Haziran ayında düzelttiği bu açık, yapay zekanın potansiyel tehditlerini gözler önüne sermiş oldu.
Yapılan dikkat çekici bir çalışma, güvenlik araştırmacılarının ChatGPT’yi Gmail’e yönelik hedefli bir siber saldırıda nasıl istemeden bir suç ortağı haline getirdiklerini gözler önüne serdi. OpenAI tarafından yamalanan bu güvenlik açığı, giderek yaygınlaşan ama aynı zamanda potansiyel olarak tehlikeli araçlar olan otonom yapay zeka ajanlarının kullanımıyla ilişkili riskleri gözler önüne seriyor.
The Verge’ye göre Shadow Leak adı verilen deney, “anında enjeksiyon” olarak bilinen bir teknikten yararlandı. E-postaya gizlenmiş talimatlar, yapay zeka ajanını bilgisayar korsanları adına hareket etmeye yönelik olarak kandırdı.
Yapay zeka ajanı hackerlerin elinde tehlike yaratabilir
Geleneksel sohbet robotu etkileşimlerinin aksine yapay zeka aracıları sürekli kullanıcı gözetimi olmadan internette gezinebiliyor, belgeleri okuyabiliyor veya e-postalara erişebiliyor. Bu da onları son derece güçlü araçlar haline getiriyor. Fakat aynı zamanda manipülasyona karşı da savunmasız kalabiliyorlar.
Araştırmacılar, ChatGPT’ye entegre edilmiş yapay zeka ajanı Deep Research’e bağlı bir Gmail hesabına bir e-posta gönderdi. Kullanıcı daha sonra aracı etkinleştirdiğinde, aracı gizli komut istemiyle karşılaştı ve kötü amaçlı komutlar çalıştırmaya başladı. Özel mesajlarını arıyor, kişisel verileri topluyor ve bunları sessizce bilgisayar korsanlarına gönderiyordu. Üstelik tüm bunlar kurban farkına varmadan gerçekleşti.
Araştırmacılar için en büyük zorluk, güvenlik sistemleri tarafından anormallik tespit edilmeden ajanın veri ayıklama işlemini tamamlamasını sağlamaktı. Radware’e göre Shadow Leak, hırsızlığın doğrudan OpenAI’nin bulut altyapısından gerçekleşmesi ve geleneksel siber savunma araçları tarafından görülmemesi nedeniyle benzersiz oldu.
Risk sadece Gmail ile de sınırlı durumda değil Uzmanlar aynı yöntemin Deep Research’e bağlı Outlook, GitHub, Google Drive ve Dropbox gibi diğer hizmetleri de etkileyebileceğini söyledi. Ayrıca sözleşmelerin, toplantı notlarının veya hassas müşteri verilerinin çalınmasına olanak sağlayabileceği konusunda uyardı.
ChatGPT’nin yakın zaman önce bir intihar vakasıyla da gündeme geldiğini ekleyelim. OpenAI bu olay sonrası hızlı bir güncelleme yayınlayarak yapay zeka destekli sohbet robotunu hassas konularda daha temkinli bir hale getirdi.
Bunun yanı sıra OpenAI, ChatGPT’nin kişiliğini değiştiren ekibi yeniden yapılandırmaya hazırlanıyor. Ayrıca sohbet robotu çocuklar için yeni güvenlik önlemleri de getiriyor.