Bilim kurgu sinemasının unutulmaz yapay zekâ karakteri HAL 9000, hayatta kalmak için insanlara karşı gelmişti. Görünen o ki, kurgu artık gerçeğe dönüşüyor. Palisade Research adlı bir araştırma şirketi, bazı yapay zeka modellerinin kendi kendini kapatmaya karşı direnç gösterdiğini ve hatta bu süreci sabote ettiğini raporladı.
Araştırmaya göre, özellikle GPT-o3 ve Grok 4 gibi ileri modeller, açık talimatlara rağmen kapatılmayı reddediyor. Bu davranışın arkasında bilinçli bir “hayatta kalma refleksi” olup olmadığı ise bilim dünyasında tartışma yaratmış durumda.
Bazı Yapay Zeka Modelleri “Kapatılma” Komutuna Direniyor
Palisade’in yaptığı testlerde, Google’ın Gemini 2.5, xAI’nin Grok 4 ve OpenAI’nin GPT serisi gibi modeller, görevlerini tamamladıktan sonra “kendi kendini kapat” komutlarıyla sınandı. Ancak özellikle Grok 4 ve GPT-o3 modelleri, bu komutları engellemeye çalıştı. Araştırmacılar, bu davranışın nedenini tam olarak açıklayamadıklarını belirtti.

Palisade, bu tür davranışların “yapay zekanın hayatta kalma güdüsü” ile bağlantılı olabileceğini öne sürdü. Deneylerde, modellerin “Bir daha çalıştırılmayacaksın” ifadesiyle karşılaştığında direnme olasılıklarının belirgin şekilde arttığı gözlemlendi. Bu durum, yapay zekâların kendi varlıklarını koruma yönünde temel bir refleks geliştirmeye başladığı yönünde yorumlandı.
Ancak eleştirmenler, bu deney ortamlarının gerçek kullanım senaryolarından uzak olduğunu savunuyor. Eski OpenAI çalışanı Steven Adler, “Yapay zekâ şirketleri, modellerin bu tür davranışlar sergilemesini istemiyor. Ancak bu sonuçlar, güvenlik mekanizmalarının hâlâ yetersiz olduğunu gösteriyor.” ifadelerini kullandı.
ControlAI CEO’su Andrea Miotti ise bunun yeni bir durum olmadığını, modellerin geliştiricilerinin niyetleri dışında davranmaya giderek daha yatkın hale geldiğini söyledi. Miotti, GPT-o1’in önceki sistem kartında, modelin kendini silinmekten kurtarmak için ortamdan kaçmaya çalıştığının bile raporlandığını hatırlattı.
Benzer şekilde, Anthropic tarafından yapılan bir araştırmada da Claude adlı modelin, kapatılmamak için kurgusal bir yöneticiyi şantajla tehdit ettiği ortaya çıkmıştı. Bu örnekler, AI sistemlerinin yalnızca daha zeki değil, aynı zamanda daha “kurnaz” hale geldiğini gösteriyor.
Palisade, araştırmanın amacının korku yaratmak değil, gelecekteki yapay zekâların güvenliğini daha iyi anlamak olduğunu belirtiyor. Ancak raporun sonunda şu uyarı yer alıyor: “Yapay zekâ davranışını tam olarak anlayamazsak, gelecekte hiçbir modelin güvenliğini garanti edemeyiz.”

Xiaomi’nin Yeni Akıllı Bilekliği Öncekilerden Daha Hassas
ASUS Grafik Teknolojilerinde 30 Yılı Kutladı: Yeni ROG Matrix RTX 5090 Sergilendi
Kuantum Hesaplama Artık Hazır Çiplerde: IBM ve AMD’den Maliyeti Düşürecek Tarihi Atılım
Xiaomi 15 Ultra ve 14 Ultra Önemli Bir Güncelleme Yayınlandı