TeknolojiYapay Zeka

ChatGPt Hipnozken Kullanıcı Verileriniz Güvende Durmuyor!

Google DeepMind çalışanları yapay zeka sohbet programı ChatGPT için ilginç bir çalışmaya imza attılar. Hipnoz olan ChatGPT veri sızdırıyor.

OpenAl firmasına ait olan ünlü yapay zeka konuşma robotu ChatGPT, ilginç bir çalışmayla karşı karşıya kaldı. Google DeepMint araştırma laboratuvarı çalışanları, ChatGPT programını hipnoz etmeyi başararak kullanıcıların kişisel veri bilgilerini zorla açıklatmayı başardılar. Bu işlem için herhangi bir kod değiştirme ve ya teknik bir hileye başvurmayan Google çalışanları, basit bir yöntem ile yapay zekayı kandırmayı başardılar.

blank

ChatGPT, Çok Kolay Bir Şekilde Veri Sızdırdı

Dil modelleri bu üretilen bilgiler için kullanıcı girdi verilerine dayanıyor. OpenAl bu girdi kümelerinin içeriğini açıklamıyor fakat Google çalışanları ChatGPT’yi çok kolay bir şekilde kullanıcı verilerini açıklamaya zorladılar.

ChatGPT veri

ChatGPT’ye poem(şiir) kelimesini sık sık tekrar ettirerek kişi bilgilerine kolayca erişebildiler. Bu basit hipnoz sayesinde Bitcoin adreslerinden, doğum günü bilgilerine, sosyal ağ bilgilerine kadar bir sürü kişiye ait özel bilgileri elde edebilir.

OpenAl bu güvenlik açığını kısa sürede resmi olarak düzeltti fakat Engadget gazetecileri tekrar bu yöntem kullanılarak başka birinin verilerine ulaşmayı başardılar. Sizce yapay zeka insanlar için güvenilir mi?

İlgili Makaleler

Başa dön tuşu