GenelGüncel Teknoloji HaberleriTeknolojiYapay Zeka

Yapay Zeka Hayatta Kalma İçgüdüsü Geliştiriyor

Yeni araştırmalar, gelişmiş yapay zeka modellerinin kapatılmak istendiğinde direnç gösterebildiğini ortaya koydu.

Bilim kurgu sinemasının unutulmaz yapay zekâ karakteri HAL 9000, hayatta kalmak için insanlara karşı gelmişti. Görünen o ki, kurgu artık gerçeğe dönüşüyor. Palisade Research adlı bir araştırma şirketi, bazı yapay zeka modellerinin kendi kendini kapatmaya karşı direnç gösterdiğini ve hatta bu süreci sabote ettiğini raporladı.

Araştırmaya göre, özellikle GPT-o3 ve Grok 4 gibi ileri modeller, açık talimatlara rağmen kapatılmayı reddediyor. Bu davranışın arkasında bilinçli bir “hayatta kalma refleksi” olup olmadığı ise bilim dünyasında tartışma yaratmış durumda.

Bazı Yapay Zeka Modelleri “Kapatılma” Komutuna Direniyor

Palisade’in yaptığı testlerde, Google’ın Gemini 2.5, xAI’nin Grok 4 ve OpenAI’nin GPT serisi gibi modeller, görevlerini tamamladıktan sonra “kendi kendini kapat” komutlarıyla sınandı. Ancak özellikle Grok 4 ve GPT-o3 modelleri, bu komutları engellemeye çalıştı. Araştırmacılar, bu davranışın nedenini tam olarak açıklayamadıklarını belirtti.

Yapay Zeka Hayatta Kalma İçgüdüsü Geliştiriyor

Palisade, bu tür davranışların “yapay zekanın hayatta kalma güdüsü” ile bağlantılı olabileceğini öne sürdü. Deneylerde, modellerin “Bir daha çalıştırılmayacaksın” ifadesiyle karşılaştığında direnme olasılıklarının belirgin şekilde arttığı gözlemlendi. Bu durum, yapay zekâların kendi varlıklarını koruma yönünde temel bir refleks geliştirmeye başladığı yönünde yorumlandı.

Ancak eleştirmenler, bu deney ortamlarının gerçek kullanım senaryolarından uzak olduğunu savunuyor. Eski OpenAI çalışanı Steven Adler, “Yapay zekâ şirketleri, modellerin bu tür davranışlar sergilemesini istemiyor. Ancak bu sonuçlar, güvenlik mekanizmalarının hâlâ yetersiz olduğunu gösteriyor.” ifadelerini kullandı.

ControlAI CEO’su Andrea Miotti ise bunun yeni bir durum olmadığını, modellerin geliştiricilerinin niyetleri dışında davranmaya giderek daha yatkın hale geldiğini söyledi. Miotti, GPT-o1’in önceki sistem kartında, modelin kendini silinmekten kurtarmak için ortamdan kaçmaya çalıştığının bile raporlandığını hatırlattı.

Benzer şekilde, Anthropic tarafından yapılan bir araştırmada da Claude adlı modelin, kapatılmamak için kurgusal bir yöneticiyi şantajla tehdit ettiği ortaya çıkmıştı. Bu örnekler, AI sistemlerinin yalnızca daha zeki değil, aynı zamanda daha “kurnaz” hale geldiğini gösteriyor.

Palisade, araştırmanın amacının korku yaratmak değil, gelecekteki yapay zekâların güvenliğini daha iyi anlamak olduğunu belirtiyor. Ancak raporun sonunda şu uyarı yer alıyor: “Yapay zekâ davranışını tam olarak anlayamazsak, gelecekte hiçbir modelin güvenliğini garanti edemeyiz.”

YouTube Yapay Zekayla Deepfake Avına Çıkıyor

İlgili Makaleler

Başa dön tuşu