Bilim kurgu sinemasının unutulmaz yapay zekâ karakteri HAL 9000, hayatta kalmak için insanlara karşı gelmişti. Görünen o ki, kurgu artık gerçeğe dönüşüyor. Palisade Research adlı bir araştırma şirketi, bazı yapay zeka modellerinin kendi kendini kapatmaya karşı direnç gösterdiğini ve hatta bu süreci sabote ettiğini raporladı.
Araştırmaya göre, özellikle GPT-o3 ve Grok 4 gibi ileri modeller, açık talimatlara rağmen kapatılmayı reddediyor. Bu davranışın arkasında bilinçli bir “hayatta kalma refleksi” olup olmadığı ise bilim dünyasında tartışma yaratmış durumda.
Bazı Yapay Zeka Modelleri “Kapatılma” Komutuna Direniyor
Palisade’in yaptığı testlerde, Google’ın Gemini 2.5, xAI’nin Grok 4 ve OpenAI’nin GPT serisi gibi modeller, görevlerini tamamladıktan sonra “kendi kendini kapat” komutlarıyla sınandı. Ancak özellikle Grok 4 ve GPT-o3 modelleri, bu komutları engellemeye çalıştı. Araştırmacılar, bu davranışın nedenini tam olarak açıklayamadıklarını belirtti.

Palisade, bu tür davranışların “yapay zekanın hayatta kalma güdüsü” ile bağlantılı olabileceğini öne sürdü. Deneylerde, modellerin “Bir daha çalıştırılmayacaksın” ifadesiyle karşılaştığında direnme olasılıklarının belirgin şekilde arttığı gözlemlendi. Bu durum, yapay zekâların kendi varlıklarını koruma yönünde temel bir refleks geliştirmeye başladığı yönünde yorumlandı.
Ancak eleştirmenler, bu deney ortamlarının gerçek kullanım senaryolarından uzak olduğunu savunuyor. Eski OpenAI çalışanı Steven Adler, “Yapay zekâ şirketleri, modellerin bu tür davranışlar sergilemesini istemiyor. Ancak bu sonuçlar, güvenlik mekanizmalarının hâlâ yetersiz olduğunu gösteriyor.” ifadelerini kullandı.
ControlAI CEO’su Andrea Miotti ise bunun yeni bir durum olmadığını, modellerin geliştiricilerinin niyetleri dışında davranmaya giderek daha yatkın hale geldiğini söyledi. Miotti, GPT-o1’in önceki sistem kartında, modelin kendini silinmekten kurtarmak için ortamdan kaçmaya çalıştığının bile raporlandığını hatırlattı.
Benzer şekilde, Anthropic tarafından yapılan bir araştırmada da Claude adlı modelin, kapatılmamak için kurgusal bir yöneticiyi şantajla tehdit ettiği ortaya çıkmıştı. Bu örnekler, AI sistemlerinin yalnızca daha zeki değil, aynı zamanda daha “kurnaz” hale geldiğini gösteriyor.
Palisade, araştırmanın amacının korku yaratmak değil, gelecekteki yapay zekâların güvenliğini daha iyi anlamak olduğunu belirtiyor. Ancak raporun sonunda şu uyarı yer alıyor: “Yapay zekâ davranışını tam olarak anlayamazsak, gelecekte hiçbir modelin güvenliğini garanti edemeyiz.”

OpenAI Eşi Benzeri Görülmemiş Kulaklıklarını Bu Yıl Piyasaya Sürebilir
Tek Tıkla Bir Ton İşten Kurtaran Anthropic Cowork Tanıtıldı
Huawei Pura 90 Ultra’nın Kamera Özellikleri ve Tasarımı Ortaya Çıktı
Galaxy S25 Satışları Düşmesi Gerekirken Yükseliyor