Yapay zeka teknolojileri her geçen gün hayatımızda daha önemli bir rol oynamaya devam ediyor. Hızla gelişen AI dünyası insan hayatında büyük kolaylıklar vaat ederken, bir yandan da ne yazık ki bazı olumsuz olaylara da yol açabiliyor. Ortaya çıkan son raporlar, ChatGPT’nin kötüye kullanımına yönelik dikkat çekici verileri karşımıza çıkarıyor.
OpenAI tarafından paylaşılan rapora göre şirketin üretken yapay zeka aracı ChatGPT ile 20’den fazla siber saldırı vakası kayıtlara geçti. Bilgisayar korsanlarının elinde tehlikeli bir silah haline gelen ChatGPT ile hedef odaklı kimlik avı, kötü amaçlı yazılım geliştirme ve güvenlik açıklarından yararlanma gibi etkinlikler kaydedildi. Endişe veren bu veriler, yapay zekanın kötü yüzünü bizlere göstermiş oldu.
İLGİNİZİ ÇEKEBİLİR: En iyi yapay zeka seslendirme araçları (ücretli ve ücretsiz)
OpenAI siber saldırı vakalarını paylaştı
OpenAI’nin raporunda doğrulanan siber saldırılardan ikisi, ChatGPT’nin suç faaliyetleri için nasıl kullanıldığını gözler önüne sermeye yardımcı oluyor. Siber güvenlik firması Cisco Talos tarafından Kasım 2023’te keşfedilen ilk rapor, SweetSpecter olarak bilinen hedef odaklı kimlik avı saldırısı aracılığıyla Asya hükümetlerini hedef alan Çinli bilgisayar korsanları tarafından gerçekleştirildi.
Bu yöntem, açıldığında kurbanın sisteminde bir enfeksiyon zincirini tetikleyen kötü amaçlı bir ZIP dosyası kullanıyordu. Analiz bir yapay zeka aracının yardımıyla komut dosyaları oluşturmak ve güvenlik açıklarını bulmak için birden fazla ChatGPT hesabının kullanıldığını ortaya çıkardı.
Ortaya çıkan bir başka siber saldırının ise CyberAv3ngers olarak bilinen İranlı bir grup tarafından düzenlendiği açıklandı. ChatGPT burada sistemlerdeki güvenlik açıklarından yararlanarak macOS tabanlı bilgisayarların şifrelerini çalmak için kullanıldı.
Yine İran’dan Storm-0817 grubu, ChatGPT’den yararlanarak Android için kötü amaçlı yazılım geliştirdi. Söz konusu kötü amaçlı yazılım sayesinde kişilere, çağrı kayıtlarına, tarayıcı geçmişine ve hatta virüslü cihazların konumlarına bile erişilebileceği vurgulandı.
OpenAI siber saldırı vakaları hakkında detaylı bir analizde bulunarak, dahili ekiplerle çalışarak ve bulguları diğer şirketlerle paylaşarak yapay zekanın güvenliğini artırmaya çalıştığını açıkladı. OpenAI’nin bu konuda yoğun bir çaba gösterdiği vurgulanırken, daha küçük yapay zeka şirketlerinin benzer tehlikelere karşı ne gibi önlemler aldığı ve savunma mekanizmasının ne durumda olduğu şu anda belirsizliğini koruyor.
Tüm bu gelişmeler, yapay zekanın kötü insanların elinde tehlike yaratabileceğini bir kez daha bizlere ispatlıyor. Peki siz yapay zekanın tehlikeleriyle ilgili neler düşünüyorsunuz?
İLGİNİZİ ÇEKEBİLİR: En popüler yapay zeka çizim siteleri ve uygulamaları