- OpenAI lideri Sam Altman, ChatGPT ile yapılan konuşmaların yasal olarak hakkınızda olumsuz sonuçlar doğurabileceğini söyledi.
- AI sohbetlerinin doktor, avukat ya da terapist ilişkilerinden farklı olarak mahremiyet barındırmadığı vurgulandı.
- Kişisel sohbetlerde kullanıcıların yapay zekaya pek fazla güvenmemesi gerektiğinin altı çizildi.
Yapay zeka sohbet robotu ChatGPT kullanıcıları artık bu uygulamayı terapi ya da duygusal destek amacıyla kullanmadan önce iki kez düşünmek isteyebilir. OpenAI CEO’su Sam Altman, AI sektörünün hassas görüşmelerde kullanıcı gizliliğini korumak için hala yasal çerçeveler geliştirmediğini dile getirdi.
Altman’ın yapmış olduğu bu açıklama, kullanıcı mahremiyetine ilişkin artan endişeleri tekrardan gündeme getirdi. Sosyal medya kullanıcıları arasında büyük bir tedirginlik yaratan bu durum, insanların yapay zekaya olan yaklaşımı ve tutumunu da ilerleyen süreçte etkileyebilecek gibi görünüyor.
ChatGPT ile sohbetleriniz yasal olarak aleyhinizde kullanılabilir
Theo Von’un This Past Weeken adlı podcast’inde OpenAI lideri Sam Altman şu anda kullanıcılar ile yapay zeka sistemleri arasında hastalar ile doktorlar, müşteriler ile avukatlar veya kullanıcılar ile terapistler arasındaki ilişkilerde olduğu gibi yasal olarak zorunlu bir gizliliğin bulunmadığını söyledi:
İnsanlar hayatlarındaki en kişisel konularda ChatGPT’ye güveniyor. Özellikle de gençler, belirli ilişkilerde veya yaşam durumlarında ne yapacaklarını sorarak onu bir terapist veya yaşam danışmanı olarak kullanıyor. Ancak bir terapist veya avukatla konuşmanın aksine burada yasal bir koruma yok.”
Altman’a göre, bir mahkeme bu tür görüşmelere erişim talep ederse bu bir sorun olabilir. Zira OpenAI yasal olarak talep edilen verileri sağlamakla yükümlü olacaktır. “Bunun doğru olduğunu düşünmüyorum. Yapay zeka ile yaptığımız görüşmelerde de terapistlerle yaptığımız gibi benzer bir gizlilik anlayışına sahip olmalıyız” diyen yönetici. bu konuların yakın zamana kadar ciddi olarak ele alınmadığını da vurguladı.
OpenAI açıkça tanımlanmış bir gizliliğin olmamasının, yapay zeka araçlarının kullanıcılar arasında daha geniş çapta benimsenmesini sınırlayabileceğinin farkında. Yapay zeka modellerini büyük miktarda kamuya açık veri üzerinde eğitmenin yanı sıra şirketler bazen yasal işlemlerde kullanıcı verilerini ifşa etmek zorunda kalıyor.
Yakın tarihli bir davada OpenAI, The New York Times ile yaşadığı bir anlaşmazlıkta, ChatGPT Enterprise kullanıcıları hariç olmak üzere küresel ölçekte kullanıcı görüşmelerini depolamasını ve işlemesini gerektiren bir mahkeme kararına itiraz ediyor.
TechCrunh’ın haberine göre OpenAI resmi web sitesinde yaptığı açıklamada, mahkemenin talebini “aşırı kapsamlı” olarak nitelendirdi ve uygulanmasının kullanıcı verilerine erişim için daha geniş kapsamlı yasal taleplere kapı açabileceği konusunda uyardı.
Podcast programının sunucusu Von, gizlilik endişeleri nedeniyle ChatGPT’yi sık sık kullanmaktan kaçındığı için Altman’dan “Yapay zeka daha ciddi bir şekilde kullanılmadan önce gizlilik ve yasalar hakkında net bir fikir edinmek istemenin anlaşılabilir olduğunu düşünüyorum” yanıtını aldı.