OpenAI Sora 2 Ortalığı Karıştırdı Bile
OpenAI Sora 2, yayınlandığı ilk günlerden itibaren tartışma yarattı. Gerçeğe yakın videolar, yanlış bilgi yayma riskini artırıyor.

Yapay zekâ ile üretilmiş görüntülerin bu kadar gerçekçi olabileceği kimin aklına gelirdi? OpenAI Sora 2, yalnızca birkaç gün içinde hazırlanan içeriklerle gündemi sarsmayı başardı. Kullanıcıların oluşturduğu videoların yarattığı tartışma, teknolojinin sınırlarını da gözler önüne seriyor.
New York Times’ın aktardığına göre, Sora 2’nin erişime açılmasının ardından yalnızca üç gün içinde sahte ama son derece gerçekçi videolar ortaya çıktı. Bu durum, yanlış bilgi akışının artık çok daha tehlikeli bir boyuta ulaşabileceğini gösteriyor.
Sora 2’nin Gerçekçiliği Yanlış Bilgiyi Tetikliyor
Sora 2’nin en dikkat çekici yönü, daha önce yapay zekâ ile üretilmiş içeriklerden çok daha gerçekçi sonuçlar sunması. Örneğin güvenlik kamerası görüntüsü gibi tasarlanan bir sahte video, seçimlerde oy pusulası dolduran maskeli bir kişiyi gösterdi. Başka bir içerikte ise bir patlamanın hemen ardından çekilmiş gibi görünen görüntüler yer aldı.
i have the most liked video on sora 2 right now, i will be enjoying this short moment while it lasts
cctv footage of sam stealing gpus at target for sora inference pic.twitter.com/B86qzUGlMq
— gabriel (@GabrielPeterss4) September 30, 2025
Platformda ayrıca ev soygunları ve market baskınlarını konu alan yapay videolar da paylaşıldı. Açıkça görüldüğü üzere, Sora 2’nin gerçekçilik düzeyi bu tarz içerikleri gündelik hayatın parçasıymış gibi göstermeye yetecek kadar güçlü. Bu da kamuoyunun yanlış yönlendirilmesi açısından ciddi bir tehlike anlamına geliyor.
OpenAI, şiddet içerikli videolar ve yaşayan ünlü isimler hakkında doğrudan içerik üretilmesini yasaklıyor. Ancak kullanıcılar dolaylı yollarla bu kuralları aşmayı başarıyor. Bir örnekte, mitingde konuşma yapan bir liderin sesi Obama’ya benzetildi. Bu, guardrail sistemlerinin tam anlamıyla yeterli olmadığını ortaya koyuyor.
Şirket, sahte videoların ayırt edilebilmesi için Sora 2’ye hareketli bir filigran ekledi. Ekranda dolaşan küçük bir duman figürü dikkat çekici olsa da, uzmanlara göre bu önlem uzun vadede yeterli olmayabilir. Filigranın kaldırılması veya gizlenmesi ihtimali, güvenlik tartışmalarını daha da alevlendiriyor.
Kamuoyunu provoke eden olaylarda yapay zekâ videolarının kullanılma ihtimali, sosyal medyanın geçmişte yaşadığı krizlerden çok daha büyük sonuçlara yol açabilir. Sora 2’nin sunduğu gerçekçilik, yalnızca içerik üretimini değil, aynı zamanda yanlış bilginin yayılım hızını da yeni bir seviyeye taşıyor.
Apple, Üretken Yapay Zeka İçin OpenAI Kapısını Tekrar Çalıyor