Güncel Teknoloji HaberleriIntelYapay Zeka

Intel Yapay Zeka Teknolojisinin Geleceğini ve Etikliğini Çiziyor!

Intel Türkiye Perakende Satış Direktörü Serkan Civlik, Intel Yapay Zeka teknolojisinin etik kuralları ile ilgili bir makale paylaştı.

Geçtiğimiz ay Intel tarafından organize edilen bir Yapay Zeka toplantısına katıldık. Burada anlatılan şeyler yapay zekanın resimleri hareketlendirmesi ya da yapay zeka ile ses değiştirme değil; yapay zekanın etik değerleri ile ilgili oldukça verimli bir konuşmaydı. Intel Türkiye Perakende Satış Direktörü Serkan Civlik tarafından yapılan bu sunum sonrasında sayın Serkan Civilik bu konuda bir makale yazdı ve bu makaleyi de hem bizimle hem de siz değerli okuyucularımız ile paylaştı. Biz de bu makaleyi ve tüm kaynakları link vererek sizlere ulaştırmak istiyoruz.

Zira yapay zeka bir yazılım kümesi ama bu kümenin kendi kararlarını verebilme gücüne kavuştuğunu da görebiliyoruz. İşte Intel de bu noktada yapay zeka teknolojisini ürün yaşam döngüsü boyunca sorumlu bir şekilde geliştirilmesi konusundaki hassasiyetlerini dile getiriyor.

Serkan Civlik
Serkan Civlik

Intel Yapay Zeka Teknolojisinin Geleceğini Çiziyor

Yapay zekâ (AI) günlük yaşamın önemli bir parçası haline geldi ve yaşama, çalışma ve yeni ve karmaşık sorunları çözme şeklimizde dönüşüm yarattı. Nörolojik rahatsızlıkları olan insanlar için ses bankacılığını mümkün kılmaktan otonom araçların yolları daha güvenli hale getirmesine ve araştırmacıların yağış modellerini ve insan nüfusu eğilimlerini daha iyi anlamalarına yardımcı olmaya kadar çok çeşitli engelleri aşmamıza, toplumları daha güvenli hale getirmemize ve daha iyi bir gelecek inşa etmek için çözümler geliştirmemize olanak sağladı.

Yapay zekânın (AI) gerçek hayattaki pek çok faydasına rağmen Hollywood, AI’nın kendi bağımsız zihnine sahip olduğu ve insanları tehdit ettiği endişe verici hikayeler anlatmayı pek seviyor. Oysa bu hayali bilimkurgu senaryoları, dikkatimizi dağıtarak, kötü tasarlanmış AI sistemlerinin insanlara son derece gerçek fakat daha sıradan yollarla zarar verebileceğini göz ardı etmemize yol açıyor. AI teknolojilerini insanları marjinalleştirmeyecek, verileri etik olmayan şekillerde kullanmayacak yahut farklı nüfuslara, özellikle de geleneksel olarak yeterince temsil edilmeyen gruplardaki bireylere karşı ayrımcılık yapmayacak şekilde, sorumlu bir biçimde geliştirmek için sürekli çaba göstermemiz kritik bir önem taşıyor. AI sistemleri geliştiricileri olarak bu gibi sorunların farkındayız ve bunları önlemek için çalışıyoruz.

Intel AI
Intel AIƒ

Intel olarak, yapay zekâ teknolojisinin olumlu küresel değişim yaratma, insanları doğru araçlarla güçlendirme ve gezegendeki her insanın hayatını iyileştirme potansiyeline inanıyoruz. Uzun zamandır dünyanın en etik şirketlerinden biri olarak tanınıyor ve bu sorumluluğu ciddiye alıyoruz. Küresel İnsan Hakları İlkelerini 2009’dan bu yana uyguluyoruz ve yapay zekâ da dahil olmak üzere ürün sorumluluğunda yüksek standartlara bağlıyız. Yapay zekâ teknolojisinin geliştirilmesiyle ilişkili etik risklerin farkındayız ve özellikle de tüm sektörlerdeki binlerce şirket Intel® AI teknolojisiyle geliştirilmiş sistemleri kullanarak yapay zekâ atılımları gerçekleştirirken bir rol model olmayı hedefliyoruz.

Yapay zekâ teknolojisini ürün yaşam döngüsü boyunca sorumlu bir şekilde geliştirme kararlılığımızı koruyoruz. Bu alanda yaptığımız çalışmaları içeren ve sorumlu bir şekilde faaliyet göstermek, yapay zekânın kötüye kullanımına karşı korunmak ve kurum içi gözetim ve yönetişim süreçleri aracılığıyla kendimizi sorumlu tutmak için attığımız adımları vurgulayan güncellenmiş Sorumlu Yapay Zekâ web sayfamızı paylaşmaktan heyecan duyuyorum.

İnceleme Süreci

Multidisipliner Sorumlu AI Danışma Konseyimiz, bir yapay zekâ projesinin yaşam döngüsü boyunca titiz bir inceleme süreci yürütür. Konsey, ürün ve proje geliştirmeyi etik etki değerlendirmemizle birlikte altı temel alanın açısından inceler: insan hakları; insan gözetimi; AI’nin açıklanabilir kullanımı; güvenlik, emniyet ve güvenilirlik; kişisel gizlilik ve eşitlik ve katılım. Amaç, AI projelerindeki potansiyel etik riskleri değerlendirmek ve bu riskleri mümkün olduğunca erkenden hafifletmektir. Konsey üyeleri ayrıca Intel genelinde tutarlılık ve uyumluluk sağlamak için geliştirme ekiplerine eğitim, geribildirim ve destek de sağlar.

Çeşitlilik ve Kapsayıcılık

Yapay zekâ algoritmalarındaki yanlılık, yalnızca araçlar ve süreçlerle ele alınamaz. AI teknolojisinin farklı geçmişlere, seslere ve deneyimlere sahip insanlar tarafından şekillendirilmesi gerekir. Intel, yapay zekâ uygulayıcılarının ve ilgili teknolojilerinin eşitlikçi ve kapsayıcı olmasını sağlamak için çaba gösteriyor. Bu bağlamda, farklı toplumsal, kültürel vs. gruplardan gelen üyelerden oluşan ekipler, daha homojen ekiplerin gözden kaçırabileceği bakış açıları sunabilir ve farklı endişeleri dile getirebilir. Veri setlerinde, problem formülasyonunda ya da modellemede yanlılığın ortaya çıkabileceği durumların yanı sıra beklenmeyen risklerin gerçek dünya entegrasyonunda zarara yol açabileceği durumları da anlamak için sosyal bilimler alanında yapılan araştırmalarından yararlanıyoruz.

Ayrıca etiği temel bir unsur olarak tüm yapay zekâ eğitim programlarına dahil etme ihtiyacının da farkındayız. Geleceğin İşgücü İçin Yapay Zekâ Programımız gibi dijital hazırlık programlarımız, öğrencileri yapay zekâ etiği ilkeleriyle tanıştırıyor ve sorumlu yapay zekâ çözümlerinin nasıl oluşturulacağını anlamalarına yardımcı oluyor. Bunun yanı sıra, zengin bir geçmişe ve uzmanlığa sahip öğrencilerin öğrenin gördüğü üniversitelerle de aktif olarak çalışıyoruz. Ve yapay zekâ gibi yeni teknolojilerden etkilenen toplumun her kesiminden insanlarla etkileşim kurmak için sürekli olarak yeni yollar arıyoruz.

Intel AI
Intel AI

Gizlilik ve Güvenlik

Yapay zekânın güvenliğini sağlamak ve veri bütünlüğünü, gizliliğini ve doğruluğunu korumak, Intel’in güvenlik araştırma ve geliştirme çalışmalarının merkezinde yer alıyor. Bu konulara bütünsel olarak yaklaşıyor ve ekosistemin güvenilir yapay zekâ oluşturmasını sağlamak için donanım ve yazılım genelinde inovasyonlar yapıyoruz. Örneğin Private AI Institute‘ta (Özel AI Enstitüsü) yürüttüğümüz araştırmalar, insanları özel bilgilerini korumanın daha iyi yolları hakkında bilgilendirmeyi amaçlıyor. Federe öğrenme ve openFL çalışmalarımız, hassas verilerden nasıl faydalı AI yapılabileceğine odaklanıyor.  DARPA GARD projemiz, yapay zekânın kurcalanmaya dayanıklı olduğunu doğrulamanın yollarını inceliyor. Son olarak, Project Amber da uçtan buluta altyapıya güvenmenin yolunu müşterilere ve iş ortaklarına sunuyor.

Son zamanlarda deepfake’lerle ilgili pek çok etik kaygının da gündeme geldiğini gördük. Deepfake algılama teknolojisini ve orijinal bilgi kaynaklarını belirlemeye yönelik araçları Intel ürünlerine nasıl dahil edebileceğimizi ve müşterilerin bu teknolojileri kendi platformlarına nasıl entegre edebileceğini araştırıyoruz. İlk iki araştırma alanı arasında deepfake algılama ya da makine öğrenmesi ve yapay zekâ kullanılarak sahte medya üretimi yahut değiştirilmesi ve içeriğin geçerliliğini doğrulamak için medya kimlik doğrulama teknolojisi yer alıyor.

İşbirliği

Hızla gelişen bu alandaki gelişmeler ortaklarımızdan oluşan ekosistemimizi, bir bütün olarak endüstriyi ve dünyayı etkiliyor. Bu nedenle kritik araştırmalara yatırım yapmaya ve gizlilik, güvenlik, insan-AI işbirliği ve sürdürülebilirlik gibi alanlarda akademik ortaklarla çalışmaya devam ediyoruz. İnsan-AI işbirliğindeki potansiyeli ortaya çıkarmanın AI için heyecan verici bir geleceğe yol açabileceğine inanıyoruz. Bunu gerçekleştirmek için gereken yetenekleri geliştiriyor ve bunları tasarım ve üretim süreçlerimizde uyguluyoruz. Ortak zorlukların üstesinden gelebilmek ve ürünlerimizi ve sektörün genelini iyileştirebilmek için konumumuz ve uygulamalarımız konusunda şeffaf olmaya çalışıyoruz. Roundtable on Human Rights & AI (İnsan Hakları ve Yapay Zekâ Yuvarlak Masası), Global Business Initiative on Human Rights (İnsan Hakları Küresel İş Girişimi), Partnership on AI (Yapay Zekâ Ortaklığı) ve Pledge to Build Gender-Fair AI (Cinsiyet Eşitliği Temelli Yapay Zekâ Oluşturma Taahhüdü) gibi forumlara aktif olarak katılarak meslektaşlarımızdan öğreniyor ve gelişen bir yapay zekâ işi kurabilmemiz için etik, ahlaki ve gizlilik parametreleri oluşturuyoruz.

İleriye Dönük Planlarımız

Yapay zekâ uzun bir yol kat etti fakat hâlâ keşfedilecek çok şey var. Bu teknolojiyi pozitif bir değişim yaratmak ve riskleri daha iyi azaltmak için kullanmanın yollarını buluyoruz. Intel olarak, multidisipliner bir yaklaşım kullanarak bilgimizi derinleştirmeye ve insan-yapay zekâ işbirliği yoluyla insan potansiyelini yapay zekâyla güçlendirmeye odaklanmaya kararlıyız.

Şirket olarak ve sektör genelinde yapay zekânın pozitif gücünü ortaya çıkarmak için birlikte çalışmaya nasıl devam edeceğimizi görmek için sabırsızlanıyorum.

Lama Nachman, Intel Üyesi ve Intel Labs Akıllı Sistemler Araştırma Laboratuvarı Direktörüdür

Ne Düşünüyorsunuz ?
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
Başa dön tuşu