<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>CSAM - TeknoBurada</title>
	<atom:link href="https://www.teknoburada.net/tag/csam/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>Son teknolojiden en hızlı haberdar olmanın yolu</description>
	<lastBuildDate>Sun, 15 Aug 2021 08:10:53 +0000</lastBuildDate>
	<language>tr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.teknoburada.net/wp-content/uploads/2022/12/favicon-tekno-150x150.png</url>
	<title>CSAM - TeknoBurada</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Apple Fotoğrafları Analiz Etme Olayına Açıklık Getirdi</title>
		<link>https://www.teknoburada.net/apple-fotograflari-analiz-etme-olayina-aciklik-getirdi/</link>
		
		<dc:creator><![CDATA[Volkan Manav]]></dc:creator>
		<pubDate>Sun, 15 Aug 2021 13:50:24 +0000</pubDate>
				<category><![CDATA[Akıllı Telefon]]></category>
		<category><![CDATA[Apple]]></category>
		<category><![CDATA[Genel]]></category>
		<category><![CDATA[Güncel Teknoloji Haberleri]]></category>
		<category><![CDATA[iOS]]></category>
		<category><![CDATA[Mobiroller]]></category>
		<category><![CDATA[Teknoloji]]></category>
		<category><![CDATA[apple]]></category>
		<category><![CDATA[çocuk istismarı]]></category>
		<category><![CDATA[CSAM]]></category>
		<category><![CDATA[iOS 15]]></category>
		<guid isPermaLink="false">https://www.teknoburada.net/?p=179542</guid>

					<description><![CDATA[<img width="1024" height="576" src="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-1024x576.jpg" class="webfeedsFeaturedVisual wp-post-image" alt="Apple önemli bir özellikten vazgeçti" style="display: block; margin: auto; margin-bottom: 10px; max-width: 100%;" decoding="async" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-768x432.jpg 768w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1.jpg 1200w" sizes="(max-width: 1024px) 100vw, 1024px" /><p>Cupertinolu Apple çocuk istismarının önüne geçmek için fotoğrafları analiz edeceğini açıklamıştı. Bu konuya bugün açıklık getirildi. Çocuk Cinsel İstismar Fotoğrafları (CSAM) tespit sistemiyle ilgili bir haftalık eleştiriden sonra Apple, bugün yaptığı açıklamada, yalnızca çeşitli ülkelerdeki veri merkezleri tarafından etiketlenmiş görüntüleri arayacağını söyledi. Başlangıçta Cupertinolu teknoloji devin, iOS işletim sistemindeki bir kişiyi doğrulaması ve muhtemelen yetkililere &#8230;</p>
<p><a href="https://www.teknoburada.net/apple-fotograflari-analiz-etme-olayina-aciklik-getirdi/">Apple Fotoğrafları Analiz Etme Olayına Açıklık Getirdi</a> yazısı ilk önce <a href="https://www.teknoburada.net">TeknoBurada</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<img width="1024" height="576" src="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-1024x576.jpg" class="webfeedsFeaturedVisual wp-post-image" alt="Apple önemli bir özellikten vazgeçti" style="display: block; margin: auto; margin-bottom: 10px; max-width: 100%;" decoding="async" loading="lazy" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-768x432.jpg 768w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1.jpg 1200w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><h4>Cupertinolu Apple çocuk istismarının önüne geçmek için fotoğrafları analiz edeceğini açıklamıştı. Bu konuya bugün açıklık getirildi.</h4>
<p>Çocuk Cinsel İstismar Fotoğrafları (CSAM) tespit sistemiyle ilgili bir haftalık eleştiriden sonra Apple, bugün yaptığı açıklamada, yalnızca çeşitli ülkelerdeki veri merkezleri tarafından etiketlenmiş görüntüleri arayacağını söyledi. Başlangıçta Cupertinolu teknoloji devin, <a href="https://www.teknoburada.net/2021/08/11/ios-15-beta-5-guncellemesi-yayinlandi/">iOS</a> işletim sistemindeki bir kişiyi doğrulaması ve muhtemelen yetkililere bildirmesi için bildirmeden önce bir telefonda veya bilgisayarda kaç tane eşleşen görüntünün bulunması gerektiğini açıklamamıştı.</p>
<h3><span style="color: #800000;">Apple 30 adet fotoğraf analiz edilecek</span></h3>
<p>Bugün ise gizlilik politikası ile eleştirilen Apple&#8217;ın, başlangıç olarak iPhone, iPad ve Mac&#8217;lerdeki analiz edilecek fotoğraf sayısının 30 adet olarak ayarlandığı açıklandı. Ancak sistem geliştikçe bu sayı azalabilir. Teknoloji devi ayrıca, yeni mekanizmanın bireyleri hedef almak için kullanılabileceği yönündeki spekülasyonları da reddetti. Konu ile ilgili olarak görüntü kimliklerinin listesi evrenseldir ve hangi cihaza uygulanırsa uygulansın aynı olacaktır ifadesine yer verildi.</p>
<p>Apple&#8217;ın ayrıca, yeni analiz sistemin, bireysel ulusal hükümetlerin himayesi altındaki en az iki veya daha fazla kuruluştan sağlanan, cihazda çocuklara yönelik cinsel istismar materyallerinin şifrelenmiş bir karma veritabanı oluşturduğu da açıklandı.</p>
<p>Gizlilik konusunda her zaman ön plana çıkan firma, yeni stratejiyi açıklamakta yetersiz bir iş çıkardığını kabul etti. Etkili teknoloji politikası gruplarından ve hatta şirketin tüketici gizliliğini koruma konusundaki itibarını tehlikeye attığından endişe duyan kendi çalışanlarından tepki aldı.</p>
<p><img decoding="async" class="aligncenter size-full wp-image-179339" src="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari.jpg" alt="Apple Çalışanları" width="1200" height="675" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari.jpg 1200w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-768x432.jpg 768w" sizes="(max-width: 1200px) 100vw, 1200px" /></p>
<p>Amerika&#8217;nın dev ismi, eleştirinin herhangi bir politikayı veya yazılımı etkileyip etkilemediğini söylemeyi reddetti.aAncak projenin hala geliştirme aşamasında olduğunu ve değişikliklere uğrayacağını söyledi. iOS 15 güncellemesi ile yürürlüğe girecek olan bu yeni politikanın daha fazla detaylandırılması gerekiyor. Apple&#8217;ın neden böyle bir hata yaptığı ve politikasına açıklık getirmediğini anlamak çok güç. Umarız teknoloji devi fotoğrafları direkt olarak analiz etmeyeceğini hash kümeleri şeklinde analiz edeceğini daha iyi anlatır.</p>
<p><a href="https://www.teknoburada.net/apple-fotograflari-analiz-etme-olayina-aciklik-getirdi/">Apple Fotoğrafları Analiz Etme Olayına Açıklık Getirdi</a> yazısı ilk önce <a href="https://www.teknoburada.net">TeknoBurada</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Apple Çalışanları Endişeli! Peki, Neden?</title>
		<link>https://www.teknoburada.net/apple-calisanlari-endiseli-peki-neden/</link>
		
		<dc:creator><![CDATA[Volkan Manav]]></dc:creator>
		<pubDate>Fri, 13 Aug 2021 12:56:07 +0000</pubDate>
				<category><![CDATA[Akıllı Telefon]]></category>
		<category><![CDATA[Apple]]></category>
		<category><![CDATA[Genel]]></category>
		<category><![CDATA[Güncel Teknoloji Haberleri]]></category>
		<category><![CDATA[Mobiroller]]></category>
		<category><![CDATA[Teknoloji]]></category>
		<category><![CDATA[apple çalışanları]]></category>
		<category><![CDATA[çocuk istismarı]]></category>
		<category><![CDATA[CSAM]]></category>
		<category><![CDATA[iOS 15]]></category>
		<guid isPermaLink="false">https://www.teknoburada.net/?p=179337</guid>

					<description><![CDATA[<img width="1024" height="576" src="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-1024x576.jpg" class="webfeedsFeaturedVisual wp-post-image" alt="Apple Çalışanları" style="display: block; margin: auto; margin-bottom: 10px; max-width: 100%;" decoding="async" loading="lazy" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-768x432.jpg 768w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari.jpg 1200w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><p>Apple&#8217;ın son güvenlik ve gizlilik politikaları tartışmalara neden oldu. Apple çalışanları bile firmandan endişe duymaya başladı. iPhone kullanıcıları ve düzinelerce kuruluş, Apple&#8217;ın çocuk cinsel istismarı (CSAM) materyali için kullanıcı fotoğraflarını taramayı durduracağı haberine karşı tepki göstermeye başlamıştı. Teknolojinin dev isimlerinin tepki gösterdiği bu yeni politika görünüşe göre Apple çalışanları tarafından da hoş karşılanmamış. Reuters&#8217;e göre; &#8230;</p>
<p><a href="https://www.teknoburada.net/apple-calisanlari-endiseli-peki-neden/">Apple Çalışanları Endişeli! Peki, Neden?</a> yazısı ilk önce <a href="https://www.teknoburada.net">TeknoBurada</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<img width="1024" height="576" src="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-1024x576.jpg" class="webfeedsFeaturedVisual wp-post-image" alt="Apple Çalışanları" style="display: block; margin: auto; margin-bottom: 10px; max-width: 100%;" decoding="async" loading="lazy" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-768x432.jpg 768w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari.jpg 1200w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><h4>Apple&#8217;ın son güvenlik ve gizlilik politikaları tartışmalara neden oldu. Apple çalışanları bile firmandan endişe duymaya başladı.</h4>
<p>iPhone kullanıcıları ve düzinelerce kuruluş, Apple&#8217;ın çocuk cinsel istismarı <strong>(CSAM)</strong> materyali için kullanıcı fotoğraflarını taramayı durduracağı haberine karşı tepki göstermeye başlamıştı. Teknolojinin dev isimlerinin tepki gösterdiği bu yeni politika görünüşe göre Apple çalışanları tarafından da hoş karşılanmamış.</p>
<p>Reuters&#8217;e göre; <strong>Apple çalışanları,</strong> kurumsal mesajlaşma platformu Slack&#8217;in kanalındaki yeni CSAM arama motoruyla ilgili endişelerini dile getirdiler. Kimliğinin açıklanmamasını isteyen bu çalışanlardan bazıları, özelliğin otoriter hükümetler tarafından insanları gözetlemek, sansürlemek ve tutuklamak için kullanılabileceğinden korktuklarını söyledi.</p>
<p>Apple, çalışanları uzaktan çalışmaya taşıdıktan sonra <strong>Slack</strong>&#8216;i daha yaygın olarak kullanmaya başladı. Apple&#8217;ın katı kurallarına rağmen, çalışanların şirketin dahili Slack&#8217;i hakkında söyledikleriyle ilgili tartışmalar halka açılıyor. Aynı zamanda Apple, çalışanlardan işçi sorunları ve diğer hassas konuları tartışmak için Slack&#8217;i kullanmamalarını istedi. Ancak bu, çalışanların şirketten memnuniyetsizliklerini ifade etmelerini engellemiyor.</p>
<p>Apple&#8217;ın çocuk istismarını engellemek kullanacağı yöntem aslında oldukça karmaşık bir yapıda olduğu için fotoğrafları Tim Cook istese bile göremeyecek.  Fotoğraflar bu analizde <strong>hash kümesine</strong> dönüştürülecek ve şifreli olarak Apple tarafından denetlenecek. Fotoğrafları şifreleyerek yapay zeka ile analiz edecek olan <a href="https://www.teknoburada.net/2021/08/10/yeni-macbook-pro-apple-m2-ile-fisek-atacak/">Apple</a>&#8216;a bu tepkilerin gelmesi oldukça ilginç.</p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-179081" src="https://www.teknoburada.net/wp-content/uploads/2021/08/iOS-15-Beta-5.jpg" alt="iOS 15 Beta 5" width="1200" height="675" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/iOS-15-Beta-5.jpg 1200w, https://www.teknoburada.net/wp-content/uploads/2021/08/iOS-15-Beta-5-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/iOS-15-Beta-5-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/iOS-15-Beta-5-768x432.jpg 768w" sizes="auto, (max-width: 1200px) 100vw, 1200px" /></p>
<p>Söz konusu çocuk istismarı olunca firmaların ağız birliği yapması gerekiyordu. Ancak bir anda herkes meraklısıymış gibi Apple&#8217;a cephe aldı. iOS 15 ile kullanıma sunulacak olan bu özellik hakkında Apple&#8217;dan daha net ve açıklayıcı bilgilerin gelmesi gerekiyor. Su bulandı bir kere. Cupertinolu teknoloji devi bu iddiaları boşa çıkarmak için bakalım kendini nasıl savunacak?</p>
<p><a href="https://www.teknoburada.net/apple-calisanlari-endiseli-peki-neden/">Apple Çalışanları Endişeli! Peki, Neden?</a> yazısı ilk önce <a href="https://www.teknoburada.net">TeknoBurada</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Şok İddia: Apple Hükümetin Casus Yazılımı!</title>
		<link>https://www.teknoburada.net/sok-iddia-apple-hukumetin-casus-yazilimi/</link>
		
		<dc:creator><![CDATA[Volkan Manav]]></dc:creator>
		<pubDate>Sun, 08 Aug 2021 17:50:52 +0000</pubDate>
				<category><![CDATA[Apple]]></category>
		<category><![CDATA[Genel]]></category>
		<category><![CDATA[Güncel Teknoloji Haberleri]]></category>
		<category><![CDATA[Mobiroller]]></category>
		<category><![CDATA[Teknoloji]]></category>
		<category><![CDATA[apple]]></category>
		<category><![CDATA[CSAM]]></category>
		<category><![CDATA[Epic Games]]></category>
		<category><![CDATA[iCloud]]></category>
		<category><![CDATA[iMessage]]></category>
		<category><![CDATA[tim cook]]></category>
		<guid isPermaLink="false">https://www.teknoburada.net/?p=178692</guid>

					<description><![CDATA[<img width="1024" height="576" src="https://www.teknoburada.net/wp-content/uploads/2021/08/porno-1024x576.jpg" class="webfeedsFeaturedVisual wp-post-image" alt="Apple Çocuk Pornosu" style="display: block; margin: auto; margin-bottom: 10px; max-width: 100%;" decoding="async" loading="lazy" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/porno-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/porno-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/porno-768x432.jpg 768w, https://www.teknoburada.net/wp-content/uploads/2021/08/porno.jpg 1200w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><p>Epic Games ile davalık olan Apple için şok iddia ortaya atıldı. Epic Games CEO&#8217;su Apple&#8217;ın Amerika hükümetine çalıştığını iddia etti. Epic Games&#8217;in CEO&#8217;su Tim Sweeney, iCloud Fotoğraflar üzerinden Apple&#8217;a saldırdı. Apple ile arası kötü olan Epic&#8217;in CEO&#8217;su; çocuk güvenliği girişimleriyle ilgili mesajlar vererek, bunun hükümetlerin gözetim yürütmesinin bir yolu olduğu fikrini öne sürdü. Peki, bu &#8230;</p>
<p><a href="https://www.teknoburada.net/sok-iddia-apple-hukumetin-casus-yazilimi/">Şok İddia: Apple Hükümetin Casus Yazılımı!</a> yazısı ilk önce <a href="https://www.teknoburada.net">TeknoBurada</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<img width="1024" height="576" src="https://www.teknoburada.net/wp-content/uploads/2021/08/porno-1024x576.jpg" class="webfeedsFeaturedVisual wp-post-image" alt="Apple Çocuk Pornosu" style="display: block; margin: auto; margin-bottom: 10px; max-width: 100%;" decoding="async" loading="lazy" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/porno-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/porno-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/porno-768x432.jpg 768w, https://www.teknoburada.net/wp-content/uploads/2021/08/porno.jpg 1200w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><h4>Epic Games ile davalık olan Apple için şok iddia ortaya atıldı. Epic Games CEO&#8217;su Apple&#8217;ın Amerika hükümetine çalıştığını iddia etti.</h4>
<p>Epic Games&#8217;in CEO&#8217;su Tim Sweeney, iCloud Fotoğraflar üzerinden Apple&#8217;a saldırdı. <a href="https://www.teknoburada.net/2021/08/06/apple-cocuk-pornosu-icin-harekete-gecti/">Apple</a> ile arası kötü olan Epic&#8217;in CEO&#8217;su; çocuk güvenliği girişimleriyle ilgili mesajlar vererek, bunun hükümetlerin gözetim yürütmesinin bir yolu olduğu fikrini öne sürdü. Peki, bu iddiaların asıl kaynağı ne?</p>
<p>Cupertinolu teknoloji devi çocukları çevrimiçi ortamda korumaya yardımcı olmak ve çocuk cinsel istismarı materyalinin (CSAM) yayılmasını azaltmak için yeni özelliğini duyurdu. Bu özellik ile birlikte iMessage üzerinden gönderilen fotoğraflar ebeveynlerin yetkisi doğrultusunda analiz edilecek. Eğer +18 bir içerik varsa bu içerikler otomatik olarak Apple tarafından sansürlenecek. İşte dananın kuyruğu tam da burada kopuyor.</p>
<p>Epic CEO&#8217;su Tim Sweeney, Apple&#8217;ın bu girişimini Amerika hükümetinin casus yazılımı olarak nitelendirdi. CEO, Twitter üzerinden; &#8220;Bunu Apple&#8217;ın bakış açısından görmek için çok uğraştım. Ancak kaçınılmaz bir şekilde, bu Apple tarafından bir suçluluk karinesine dayalı olarak kurulan devlet casus yazılımıdır. Kodu Apple yazmış olsa da, işlevi kişisel verileri tarayıp hükümete bildirmektir.&#8221; açıklamasında bulundu.</p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">I&#8217;ve tried hard to see this from Apple&#8217;s point of view. But inescapably, this is government spyware installed by Apple based on a presumption of guilt. Though Apple wrote the code, its function is to scan personal data and report it to government.<a href="https://t.co/OrkfOSjvS1">https://t.co/OrkfOSjvS1</a></p>
<p>— Tim Sweeney (@TimSweeneyEpic) <a href="https://twitter.com/TimSweeneyEpic/status/1424080572993974274?ref_src=twsrc%5Etfw">August 7, 2021</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p>Sweeney&#8217;nin kişisel verilerin taranmasıyla ilgili suçlamaları, Apple&#8217;ın sisteminin gerçekte nasıl çalıştığıyla biraz çelişiyor. Tarama sistemi, görüntünün kendisine bakmak yerine, iCloud&#8217;da depolanan dosyaların matematiksel karmalarını karşılaştırıyor. CSAM sayesinde fotoğraflar analiz edilip sansürleniyor. Yani veriler başka kaynaklara gönderilmiyor. Bu verilere de erişilmesi de imkansız.</p>
<p>Güvenlik konusunda sık sık ön plana çıkan Cupertinolu firma, verileri korumak için özellikle kişisel bilgileri sunucularında değil kendi cihazlarında muhafaza ediyor. Bu konuda Apple&#8217;ı suçlamak çok yersiz. Teknoloji devi çocuk istismarı ve zorbalığın önüne geçmek için oldukça etkili bir hamle yapıyor. Umarız Epic Games&#8217;in CEO&#8217;su haksız çıkar ve bu yeni politika ile veriler iddia edildiği gibi Amerika hükümetine gönderilmez.</p>
<p><a href="https://www.teknoburada.net/sok-iddia-apple-hukumetin-casus-yazilimi/">Şok İddia: Apple Hükümetin Casus Yazılımı!</a> yazısı ilk önce <a href="https://www.teknoburada.net">TeknoBurada</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
