Kaliforniya merkezli yapay zeka şirketi OpenAI tarafından geçtiğimiz yılın sonlarına doğru piyasaya sürülen ChatGPT adlı sohbet robotu, ‘gizli mod’ özelliğine sahip oldu. Şirket, son dönemlerde adeta internet dünyasında bir trend başlatan AI hizmetine yeni gizlilik kontrolleri getirdiğini duyurdu. Yeni kontrol özellikle sohbet geçmişlerine ve bunların LLM eğitimi amacıyla paylaşılmasına odaklanıyor.
ChatGPT sohbet robotunun ayarlarında yer alan sohbet geçmişi, bot ile kullanıcı arasındaki konuşmayı takip ederek yapay zeka dil modelini eğitmek ve iyileştirmek için kullanılıyordu. Artık kullanıcılar, konuşmaları model eğitimi için kullanılmaya devam etse bile bu özelliği devre dışı bırakmayı tercih edebilir. Yalnızca birkaç saniyenizi ayırarak gerçekleştirebileceğiniz bu işlem, ekranın sol bölümünde bulunan sohbet geçmişini tümüyle ortadan kaldırmanıza izin verecek.
ChatGPT ‘gizli mod’ özelliğiyle karşımıza çıktı
OpenAI’nin resmi blog sayfasında açıkladığı bilgilere göre yeni kontrol seçenekleri ile beraber bir kullanıcı sohbet geçmişini devre dışı bırakmayı tercih ederse, sohbetleri ChatGPT dil modelini eğitmek için kullanılmayacak ve geçmiş sohbetleri kenar çubuğunda görünmeyecek.
Konuşmalar şirket tarafından 30 gün boyunca saklanacak ve yalnızca herhangi bir kötüye kullanım durumu olup olmadığını takip etmek için saklanacak. Bir aylık süre zarfından sonra ise kötüye kullanım tespit edilmediği takdirde sohbetler otomatik bir şekilde silinecek. Bilindiği üzere son dönemlerde OpenAI şirketine veri gizliliği konusunda sık sık eleştiriler getiriliyordu. Şirket bu değişiklikler ile beraber son zamanlarda artmaya başlayan bu endişelere cevap verdi.
OpenAI veri gizliliği tartışmalarını sonlandırmak istiyor
‘Gizli mod’ desteği ile birlikte kullanıcılarını rahatlatan ChatGPT, sohbet geçmişi konusunda son dönemlerde bir gizlilik tartışmasının merkezinde oldu. Geçen ay uygulamadaki bir hata geçici olarak bazı kullanıcıların sohbet geçmişlerini izinleri olmadan yetkisiz kişilere ifşa etti. Yaşanan bu olay, platformdaki veri güvenliği endişelerini artırdı. Daha sonra konu İtalyan Veri Koruma Kurumu’nun da dikkatini çekti ve bunun sonucunda ChatGPT’ye İtalya’da erişim yasağı getirildi.
İtalya’dan gelen yasak ve dünya genelinde başlayan tartışmalardan sonra OpenAI, kullanıcı gizliliği konusunda daha hassas bir tutum sergileyerek kullanıcıların özel verilerini korumak için harekete geçti. Fakat yine de sohbet geçmişi tutma ile dil modeli eğitimi için veri saklama arasındaki ilişki açık bir şekilde belirtilmedi. OpenAI şimdilik ne yazık ki bu konuda detaylı bir açıklamada bulunmadı. Ancak yine de yeni kontrollerin gizlilik sorununu çözmeyi ve veri güvenliği ile ilgili daha fazla sorun çıkmasını engellemeyi amaçladığı görülüyor.
Bu içerik de ilginizi çekebilir: JavaGPT, ChatGPT deneyimini eski Windows sürümlerine getiriyor