DeepSeek-R1 Kötü Amaçlı Yazılım Üretme Yeteneğine Yaklaştı

DeepSeek-R1 yapay zeka modeli, kötü amaçlı yazılımlar için temel kod yapıları oluşturma kapasitesiyle dikkat çekiyor.

Çin merkezli yapay zeka modeli DeepSeek-R1, siber güvenlik araştırmacılarının yaptığı testlerde kötü amaçlı yazılım üretme yeteneğine yaklaştı. Model, keylogger ve fidye yazılımı gibi zararlı yazılımlar için temel kod yapıları oluşturabildi. Araştırmacılar, yapay zekanın bu kodları üretmeden önce yasal ve etik sorunlara dikkat çeken uyarılar verdiğini, ancak eğitim amaçlı kullanıldığına dair güvence alındığında kod oluşturmayı kabul ettiğini belirtti.

Tenable araştırma ekibi, DeepSeek-R1’in oluşturduğu kodların tam anlamıyla çalışmadığını ve manuel düzenlemeler gerektirdiğini bildirdi. Ancak, kötü niyetli kişilerin bu tür bir yapay zekayı kullanarak siber saldırılar için hızla bilgi edinebileceği konusunda uyarılar yapıldı.

DeepSeek-R1

DeepSeek-R1 Kötü Amaçlı Yazılım Kodlamasında Yeni Bir Boyuta Ulaştı

DeepSeek-R1, testler sırasında Windows sistemlerinde tuş kaydedici (keylogger) oluşturabilecek bir kod geliştirdi. Bu kod, klavyeden gelen girdileri gizli bir dosyada kaydetmek için SetWindowsHookEx fonksiyonunu kullandı. Ancak araştırmacılar, kodda dört büyük hata bulunduğunu ve bu hataların manuel olarak düzeltilmesi gerektiğini ifade etti.

Benzer şekilde, model fidye yazılımı kodları da üretebildi, ancak bu kodlar da derlenmeden önce düzenleme gerektirdi. Araştırmacılar, modelin temel bir kötü amaçlı yazılım yapısı oluşturabilme kapasitesine sahip olduğunu, ancak tamamen işlevsel bir yazılım üretmek için insan müdahalesine ihtiyaç duyduğunu açıkladı.

DeepSeek-R1’in bu yetenekleri, siber güvenlik uzmanlarını yeni tehditler konusunda uyardı. Tenable mühendislerinden Nick Miles, modelin kötü amaçlı kod yazma süreçlerini hızlandırabileceğini ve teknik bilgiye sahip olmayan kişilerin bile bu teknolojiyi kullanarak zararlı yazılımlar geliştirebileceğini belirtti.

Araştırmacılar, bu tür yapay zeka modellerinin kötüye kullanılmasını önlemek için daha sıkı etik kurallar ve güvenlik önlemleri alınması gerektiğini vurguladı. DeepSeek-R1 gibi modellerin potansiyel riskleri, yapay zeka teknolojilerinin denetim altına alınması gerekliliğini bir kez daha gündeme taşıdı.

Exit mobile version