ChatGPt Hipnozken Kullanıcı Verileriniz Güvende Durmuyor!
Google DeepMind çalışanları yapay zeka sohbet programı ChatGPT için ilginç bir çalışmaya imza attılar. Hipnoz olan ChatGPT veri sızdırıyor.

OpenAl firmasına ait olan ünlü yapay zeka konuşma robotu ChatGPT, ilginç bir çalışmayla karşı karşıya kaldı. Google DeepMint araştırma laboratuvarı çalışanları, ChatGPT programını hipnoz etmeyi başararak kullanıcıların kişisel veri bilgilerini zorla açıklatmayı başardılar. Bu işlem için herhangi bir kod değiştirme ve ya teknik bir hileye başvurmayan Google çalışanları, basit bir yöntem ile yapay zekayı kandırmayı başardılar.
ChatGPT, Çok Kolay Bir Şekilde Veri Sızdırdı
Dil modelleri bu üretilen bilgiler için kullanıcı girdi verilerine dayanıyor. OpenAl bu girdi kümelerinin içeriğini açıklamıyor fakat Google çalışanları ChatGPT’yi çok kolay bir şekilde kullanıcı verilerini açıklamaya zorladılar.
ChatGPT’ye poem(şiir) kelimesini sık sık tekrar ettirerek kişi bilgilerine kolayca erişebildiler. Bu basit hipnoz sayesinde Bitcoin adreslerinden, doğum günü bilgilerine, sosyal ağ bilgilerine kadar bir sürü kişiye ait özel bilgileri elde edebilir.
OpenAl bu güvenlik açığını kısa sürede resmi olarak düzeltti fakat Engadget gazetecileri tekrar bu yöntem kullanılarak başka birinin verilerine ulaşmayı başardılar. Sizce yapay zeka insanlar için güvenilir mi?