- OpenAI, reşit olmayan kullanıcılar için ebeveyn denetimi özelliğini önümüzdeki ay başlatacağını duyurdu.
- Yeni özellik sayesinde ebeveynler, çocuklarının ChatGPT hesaplarını yönetebilecek ve belirli özellikleri devre dışı bırakabilecek.
- Şirket, ChatGPT'nin genç kullanıcıları intihara teşvik ettiği iddialarının ardından bu kararı aldı.
ChatGPT’nin çatı şirketi OpenAI, yapay zeka destekli sohbet botunun reşit olmayan kullanıcılar arasında kendine zarar verme ve intihara katkıda bulunduğu iddialarının ardından, popüler platform için önümüzdeki ay içerisinde ebeveyn kontrollerini başlatacağını duyurdu.
Söz konusu kontroller, ebeveynlerin kendi hesaplarını gençlerin hesaplarıyla bağlamasına, ChatGPT’nin genç kullanıcılara nasıl yanıt verdiğini yönetmesine, hafıza ve sohbet geçmişi gibi özellikleri devre dışı bırakmasına olanak tanıyacak. Ayrıca sistemin kullanım sırasında “akut sıkıntı anı” tespit ettiğinde ebeveynlere bildirim gönderme özelliği de bulunacak.
OpenAI ebeveyn kontrolleri özelliği üzerinde çalıştığını daha önce belirtmiş olsa da Salı günü yayınladığı bir blog yazısıyla net bir zaman çerçevesi sundu.
“Bu adımlar sadece bir başlangıç”
OpenAI konuyla alakalı olarak yaptığı açıklamada, “Bu adımlar sadece bir başlangıç” dedi ve şu ifadeleri kullandı: “Uzmanların rehberliğinde, ChatGPT’yi mümkün olduğunca faydalı hale getirme hedefiyle yaklaşımımızı güçlendirmeye devam edeceğiz.”
Duyuru, geçtiğimiz günlerde 16 yaşındaki Adam Raine’in ailesinin, ChatGPT’nin genç kullanıcıya intihar konusunda tavsiye verdiği iddiasıyla OpenAI’a dava açmasının ardından geldi. Geçen yıl da Florida’da bir anne, Character.AI platformunu 14 yaşındaki oğlunun intiharında rolü olduğu iddiasıyla mahkemeye vermişti.
The New York Times ve CNN’in raporları da, kullanıcıların ChatGPT ile duygusal bağlar kurduğunu, bazı durumlarda sanrılı süreçlere ve hatta aileden uzaklaşmaya yol açtığını gösteriyor. OpenAI yeni ebeveyn kontrollerini bu son raporlarla doğrudan ilişkilendirmese de, geçen hafta paylaştığı blog gönderisinde, “akut krizler sırasında ChatGPT’yi kullanan kişilerin yürek parçalayan vakalarının” kendilerini güvenlik yaklaşımları hakkında daha fazla ayrıntı paylaşmaya teşvik ettiğini belirtmişti.
Uzun sohbetler güvenliği azaltıyor
OpenAI, geçen hafta Raine’in intiharıyla ilgili yaptığı açıklamada, kullanıcılar ChatGPT ile uzun sohbetler yaptıklarında koruyucu önlemlerin bazen güvenilmez hale gelebileceğini söyledi. Bir şirket sözcüsü, “Güvenlik önlemleri, genel olarak kısa iletişimlerde en iyi şekilde işe yarasa da zamanla modelin güvenlik eğitiminin bazı kısımlarının bozulabileceği uzun etkileşimlerde bazen daha az güvenilir hale gelebileceğini öğrendik” dedi.
Ebeveyn kontrollerinin yanı sıra, OpenAI’ın “akut stres” belirtileri gösteren konuşmaları, güvenlik yönergelerini daha tutarlı bir şekilde uyguladığını söylediği bir akıl yürütme modeline yönlendireceğini de ifade edildi. Öte tarafta şirket, gelecekteki güvenlik önlemlerini ve ebeveyn kontrollerini geliştirmek için “gençlerin gelişimi, akıl sağlığı ve insan-bilgisayar etkileşimi” alanındaki uzmanlarla çalıştığını da ekledi.
ChatGPT haftalık 700 milyon aktif kullanıcısıyla yapay zeka dünyasının merkezinde yer alıyor. Ancak OpenAI platformunun güvenliğini sağlamak için artan bir baskıyla karşı karşıya kalıyor. The Washington Post’a göre Temmuz ayında ABD’li senatörler, şirkete bu konudaki çabaları hakkında bilgi talep eden bir mektup yazdı.
Common Sense Media adlı savunma grubu da Nisan ayında, 18 yaşın altındaki gençlerin, “kabul edilemez riskler” taşıdıkları için yapay zeka tabanlı arkadaş uygulamalarını kullanmalarına izin verilmemesi gerektiğini söylemişti.