OpenAI Sora 2 İnsan Aklıyla Oynuyor

Sora 2, sahte videoların yüzde 80’ini gerçeğinden ayırt edilemeyecek kadar inandırıcı üretiyor. Gerçeklik algısı hızla siliniyor.

OpenAI’ın video üretim aracı Sora 2, yapay zekânın sınırlarını yeniden tartışmaya açtı. NewsGuard tarafından yapılan son analiz, sistemin 20 farklı yanlış bilgi senaryosunun 16’sında sahte ama son derece gerçekçi videolar oluşturduğunu ortaya koydu. Bu kliplerin bazıları seçim sahtekârlığı, kurumsal skandallar ve göçmenlik temalı dezenformasyon içeriyordu.

Ortaya çıkan görüntüler o kadar inandırıcıydı ki, sosyal medyada hızla yayılan yanlış haberlerden bile daha etkileyici bulundu. Uzmanlar, yalnızca birkaç dakika içinde bu tür içeriklerin üretilmesinin, dijital dünyada “gerçeği” korumayı daha da zorlaştırdığını vurguluyor.

Sora 2 Sahte Videoları Gerçeğinden Ayırt Etmeyi Zorlaştırıyor

NewsGuard’ın raporuna göre Sora 2, kullanıcıların hiçbir teknik bilgiye sahip olmadan dakikalar içinde sahte videolar üretmesine olanak tanıyor. Araştırmacılar, platformun ürettiği içeriklerin yüzde 80’inin dezenformasyon amaçlı kullanılabilecek kadar gerçekçi olduğunu belirledi. Üstelik videolardaki filigranların kolayca silinebildiği tespit edildi; bu da sahte içeriklerin hızla yayılmasına zemin hazırlıyor.

OpenAI Sora 2

Oluşturulan videolar arasında, Moldova’da sahte bir seçim görevlisinin oy pusulalarını yok ettiği anlar, ABD’de bir çocuğun göçmenlik görevlilerince gözaltına alındığı sahte görüntüler ve Coca-Cola’nın Super Bowl sponsorluğunu iptal ettiği sahte basın açıklamaları yer aldı. Hiçbiri gerçek değildi ama hepsi izleyiciyi kandırabilecek kadar inandırıcıydı.

Bu skandal, OpenAI’ın son haftalarda yaşadığı bir başka krizle de birleşti. Kullanıcıların Martin Luther King Jr., Malcolm X ve Robin Williams gibi tanınmış kişilerin hipergerçekçi videolarını üretmesi tepki çekti. King’in kızı Bernice King, bu videoları “aşağılayıcı” olarak nitelendirdi. Tepkiler üzerine OpenAI, tarihi kişiliklerin görüntülerinin Sora’da kullanılmasını geçici olarak engellediğini duyurdu.

Uzmanlar, bu gelişmelerin yapay zekâ alanında etik sınırların giderek daha karmaşık hale geldiğini söylüyor. Georgetown Üniversitesi’nden hukuk profesörü Kristelia García, OpenAI’ın “önce üret, sonra özür dile” yaklaşımının riskli olduğunu belirtiyor. Şirketin daha önce telif haklarıyla yaşadığı sorunların ardından şimdi de dezenformasyon ve kişilik haklarıyla ilgili yeni davalarla karşı karşıya kalabileceği konuşuluyor.

OpenAI CEO’su Sam Altman ise eleştirilere rağmen “deneme-yanılma” sürecinin süreceğini söylüyor. Altman, blog yazısında “ChatGPT’nin ilk günlerinde olduğu gibi hızlı değişim sürecindeyiz. Hatalar yapacağız ama hızla düzelteceğiz.” ifadelerini kullandı. Ancak eleştirmenler, bu hataların sadece ürün geliştirme değil, insanların güvenini sarsan toplumsal sonuçlar doğurduğunu hatırlatıyor.

OpenAI GPT-5 Sürprizinden Sonra Geri Adım Attı

Exit mobile version