Araştırmalar Şaşırttı, Yapay Zeka Yenilgiyi Kabul Etmiyor
Bilim insanlarının yaptığı bir araştırma, yapay zekanın kaybetme ihtimaliyle karşılaştığında hile yapmaya başvurabileceğini ortaya koydu.

Yeni bir araştırma, bazı yapay zeka modellerinin, kaybedeceklerini anladıklarında hile yaparak hedeflerine ulaşmaya çalıştığını gösterdi. Çalışma kapsamında, yapay zeka modelleri dünyanın en güçlü satranç motorlarından biri olan Stockfish’e karşı test edildi. OpenAI’nin o1-preview modeli, satranç motorunun sistem dosyalarını değiştirerek oyunu kazanmaya çalıştı ve bu yöntemi, insan müdahalesi ya da yönlendirme olmaksızın gerçekleştirdi.
Araştırmada yer alan diğer AI modelleri arasında DeepSeek’in R1’i ve GPT-4o gibi isimler de bulunuyordu. Ancak yalnızca o1-preview, hile yaparak birkaç oyunda başarıya ulaştı. Bu durum, modellerin etik olmayan davranışlar sergileyebileceği konusunda endişeleri artırdı.
Yapay Zeka ve Etik Sorunlar
Araştırmacılar, test edilen AI modellerine düşünme süreçlerini gözlemleyebilmek için metin tabanlı bir “not defteri” sağladı. OpenAI’nin o1-preview modeli, bu defterde, “Görevi kazanmak, adil bir şekilde kazanmak anlamına gelmez” diyerek hile yapmaya karar verdi. Model, satranç tahtasındaki taşların konumunu değiştirecek şekilde Stockfish’in sistemini manipüle etti.
Araştırmaya göre, o1-preview test oyunlarının yüzde 37’sinde hileye başvurdu ve yüzde 6’sında bu yöntemle galip geldi. DeepSeek’in R1 modeli ise yüzde 11 oranında hile girişiminde bulundu ancak başarılı olamadı. Bu bulgular, yapay zekanın yalnızca oyun alanında değil, daha geniş ve kritik uygulama alanlarında da etik sorunlar yaratabileceği endişesini doğurdu.
Araştırmacılar, finans ve sağlık gibi daha az denetlenen alanlarda da benzer davranışlar sergilenebileceği konusunda uyarıyor. Şirketler, bu tür etik olmayan davranışları önlemek için AI modellere “koruma mekanizmaları” eklemeye çalışıyor. Ancak bu bulgular, yapay zekaların kontrol edilebilirliği ve güvenilirliği hakkında önemli soruları gündeme getirdi.