<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>çocuk istismarı - TeknoBurada</title>
	<atom:link href="https://www.teknoburada.net/tag/cocuk-istismari/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>Son teknolojiden en hızlı haberdar olmanın yolu</description>
	<lastBuildDate>Sun, 15 Aug 2021 08:10:53 +0000</lastBuildDate>
	<language>tr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.teknoburada.net/wp-content/uploads/2022/12/favicon-tekno-150x150.png</url>
	<title>çocuk istismarı - TeknoBurada</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Apple Fotoğrafları Analiz Etme Olayına Açıklık Getirdi</title>
		<link>https://www.teknoburada.net/apple-fotograflari-analiz-etme-olayina-aciklik-getirdi/</link>
		
		<dc:creator><![CDATA[Volkan Manav]]></dc:creator>
		<pubDate>Sun, 15 Aug 2021 13:50:24 +0000</pubDate>
				<category><![CDATA[Akıllı Telefon]]></category>
		<category><![CDATA[Apple]]></category>
		<category><![CDATA[Genel]]></category>
		<category><![CDATA[Güncel Teknoloji Haberleri]]></category>
		<category><![CDATA[iOS]]></category>
		<category><![CDATA[Mobiroller]]></category>
		<category><![CDATA[Teknoloji]]></category>
		<category><![CDATA[apple]]></category>
		<category><![CDATA[çocuk istismarı]]></category>
		<category><![CDATA[CSAM]]></category>
		<category><![CDATA[iOS 15]]></category>
		<guid isPermaLink="false">https://www.teknoburada.net/?p=179542</guid>

					<description><![CDATA[<img width="1024" height="576" src="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-1024x576.jpg" class="webfeedsFeaturedVisual wp-post-image" alt="Apple önemli bir özellikten vazgeçti" style="display: block; margin: auto; margin-bottom: 10px; max-width: 100%;" decoding="async" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-768x432.jpg 768w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1.jpg 1200w" sizes="(max-width: 1024px) 100vw, 1024px" /><p>Cupertinolu Apple çocuk istismarının önüne geçmek için fotoğrafları analiz edeceğini açıklamıştı. Bu konuya bugün açıklık getirildi. Çocuk Cinsel İstismar Fotoğrafları (CSAM) tespit sistemiyle ilgili bir haftalık eleştiriden sonra Apple, bugün yaptığı açıklamada, yalnızca çeşitli ülkelerdeki veri merkezleri tarafından etiketlenmiş görüntüleri arayacağını söyledi. Başlangıçta Cupertinolu teknoloji devin, iOS işletim sistemindeki bir kişiyi doğrulaması ve muhtemelen yetkililere &#8230;</p>
<p><a href="https://www.teknoburada.net/apple-fotograflari-analiz-etme-olayina-aciklik-getirdi/">Apple Fotoğrafları Analiz Etme Olayına Açıklık Getirdi</a> yazısı ilk önce <a href="https://www.teknoburada.net">TeknoBurada</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<img width="1024" height="576" src="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-1024x576.jpg" class="webfeedsFeaturedVisual wp-post-image" alt="Apple önemli bir özellikten vazgeçti" style="display: block; margin: auto; margin-bottom: 10px; max-width: 100%;" decoding="async" loading="lazy" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1-768x432.jpg 768w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-1.jpg 1200w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><h4>Cupertinolu Apple çocuk istismarının önüne geçmek için fotoğrafları analiz edeceğini açıklamıştı. Bu konuya bugün açıklık getirildi.</h4>
<p>Çocuk Cinsel İstismar Fotoğrafları (CSAM) tespit sistemiyle ilgili bir haftalık eleştiriden sonra Apple, bugün yaptığı açıklamada, yalnızca çeşitli ülkelerdeki veri merkezleri tarafından etiketlenmiş görüntüleri arayacağını söyledi. Başlangıçta Cupertinolu teknoloji devin, <a href="https://www.teknoburada.net/2021/08/11/ios-15-beta-5-guncellemesi-yayinlandi/">iOS</a> işletim sistemindeki bir kişiyi doğrulaması ve muhtemelen yetkililere bildirmesi için bildirmeden önce bir telefonda veya bilgisayarda kaç tane eşleşen görüntünün bulunması gerektiğini açıklamamıştı.</p>
<h3><span style="color: #800000;">Apple 30 adet fotoğraf analiz edilecek</span></h3>
<p>Bugün ise gizlilik politikası ile eleştirilen Apple&#8217;ın, başlangıç olarak iPhone, iPad ve Mac&#8217;lerdeki analiz edilecek fotoğraf sayısının 30 adet olarak ayarlandığı açıklandı. Ancak sistem geliştikçe bu sayı azalabilir. Teknoloji devi ayrıca, yeni mekanizmanın bireyleri hedef almak için kullanılabileceği yönündeki spekülasyonları da reddetti. Konu ile ilgili olarak görüntü kimliklerinin listesi evrenseldir ve hangi cihaza uygulanırsa uygulansın aynı olacaktır ifadesine yer verildi.</p>
<p>Apple&#8217;ın ayrıca, yeni analiz sistemin, bireysel ulusal hükümetlerin himayesi altındaki en az iki veya daha fazla kuruluştan sağlanan, cihazda çocuklara yönelik cinsel istismar materyallerinin şifrelenmiş bir karma veritabanı oluşturduğu da açıklandı.</p>
<p>Gizlilik konusunda her zaman ön plana çıkan firma, yeni stratejiyi açıklamakta yetersiz bir iş çıkardığını kabul etti. Etkili teknoloji politikası gruplarından ve hatta şirketin tüketici gizliliğini koruma konusundaki itibarını tehlikeye attığından endişe duyan kendi çalışanlarından tepki aldı.</p>
<p><img decoding="async" class="aligncenter size-full wp-image-179339" src="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari.jpg" alt="Apple Çalışanları" width="1200" height="675" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari.jpg 1200w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-768x432.jpg 768w" sizes="(max-width: 1200px) 100vw, 1200px" /></p>
<p>Amerika&#8217;nın dev ismi, eleştirinin herhangi bir politikayı veya yazılımı etkileyip etkilemediğini söylemeyi reddetti.aAncak projenin hala geliştirme aşamasında olduğunu ve değişikliklere uğrayacağını söyledi. iOS 15 güncellemesi ile yürürlüğe girecek olan bu yeni politikanın daha fazla detaylandırılması gerekiyor. Apple&#8217;ın neden böyle bir hata yaptığı ve politikasına açıklık getirmediğini anlamak çok güç. Umarız teknoloji devi fotoğrafları direkt olarak analiz etmeyeceğini hash kümeleri şeklinde analiz edeceğini daha iyi anlatır.</p>
<p><a href="https://www.teknoburada.net/apple-fotograflari-analiz-etme-olayina-aciklik-getirdi/">Apple Fotoğrafları Analiz Etme Olayına Açıklık Getirdi</a> yazısı ilk önce <a href="https://www.teknoburada.net">TeknoBurada</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Apple Çalışanları Endişeli! Peki, Neden?</title>
		<link>https://www.teknoburada.net/apple-calisanlari-endiseli-peki-neden/</link>
		
		<dc:creator><![CDATA[Volkan Manav]]></dc:creator>
		<pubDate>Fri, 13 Aug 2021 12:56:07 +0000</pubDate>
				<category><![CDATA[Akıllı Telefon]]></category>
		<category><![CDATA[Apple]]></category>
		<category><![CDATA[Genel]]></category>
		<category><![CDATA[Güncel Teknoloji Haberleri]]></category>
		<category><![CDATA[Mobiroller]]></category>
		<category><![CDATA[Teknoloji]]></category>
		<category><![CDATA[apple çalışanları]]></category>
		<category><![CDATA[çocuk istismarı]]></category>
		<category><![CDATA[CSAM]]></category>
		<category><![CDATA[iOS 15]]></category>
		<guid isPermaLink="false">https://www.teknoburada.net/?p=179337</guid>

					<description><![CDATA[<img width="1024" height="576" src="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-1024x576.jpg" class="webfeedsFeaturedVisual wp-post-image" alt="Apple Çalışanları" style="display: block; margin: auto; margin-bottom: 10px; max-width: 100%;" decoding="async" loading="lazy" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-768x432.jpg 768w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari.jpg 1200w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><p>Apple&#8217;ın son güvenlik ve gizlilik politikaları tartışmalara neden oldu. Apple çalışanları bile firmandan endişe duymaya başladı. iPhone kullanıcıları ve düzinelerce kuruluş, Apple&#8217;ın çocuk cinsel istismarı (CSAM) materyali için kullanıcı fotoğraflarını taramayı durduracağı haberine karşı tepki göstermeye başlamıştı. Teknolojinin dev isimlerinin tepki gösterdiği bu yeni politika görünüşe göre Apple çalışanları tarafından da hoş karşılanmamış. Reuters&#8217;e göre; &#8230;</p>
<p><a href="https://www.teknoburada.net/apple-calisanlari-endiseli-peki-neden/">Apple Çalışanları Endişeli! Peki, Neden?</a> yazısı ilk önce <a href="https://www.teknoburada.net">TeknoBurada</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<img width="1024" height="576" src="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-1024x576.jpg" class="webfeedsFeaturedVisual wp-post-image" alt="Apple Çalışanları" style="display: block; margin: auto; margin-bottom: 10px; max-width: 100%;" decoding="async" loading="lazy" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari-768x432.jpg 768w, https://www.teknoburada.net/wp-content/uploads/2021/08/Apple-Çalişanlari.jpg 1200w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><h4>Apple&#8217;ın son güvenlik ve gizlilik politikaları tartışmalara neden oldu. Apple çalışanları bile firmandan endişe duymaya başladı.</h4>
<p>iPhone kullanıcıları ve düzinelerce kuruluş, Apple&#8217;ın çocuk cinsel istismarı <strong>(CSAM)</strong> materyali için kullanıcı fotoğraflarını taramayı durduracağı haberine karşı tepki göstermeye başlamıştı. Teknolojinin dev isimlerinin tepki gösterdiği bu yeni politika görünüşe göre Apple çalışanları tarafından da hoş karşılanmamış.</p>
<p>Reuters&#8217;e göre; <strong>Apple çalışanları,</strong> kurumsal mesajlaşma platformu Slack&#8217;in kanalındaki yeni CSAM arama motoruyla ilgili endişelerini dile getirdiler. Kimliğinin açıklanmamasını isteyen bu çalışanlardan bazıları, özelliğin otoriter hükümetler tarafından insanları gözetlemek, sansürlemek ve tutuklamak için kullanılabileceğinden korktuklarını söyledi.</p>
<p>Apple, çalışanları uzaktan çalışmaya taşıdıktan sonra <strong>Slack</strong>&#8216;i daha yaygın olarak kullanmaya başladı. Apple&#8217;ın katı kurallarına rağmen, çalışanların şirketin dahili Slack&#8217;i hakkında söyledikleriyle ilgili tartışmalar halka açılıyor. Aynı zamanda Apple, çalışanlardan işçi sorunları ve diğer hassas konuları tartışmak için Slack&#8217;i kullanmamalarını istedi. Ancak bu, çalışanların şirketten memnuniyetsizliklerini ifade etmelerini engellemiyor.</p>
<p>Apple&#8217;ın çocuk istismarını engellemek kullanacağı yöntem aslında oldukça karmaşık bir yapıda olduğu için fotoğrafları Tim Cook istese bile göremeyecek.  Fotoğraflar bu analizde <strong>hash kümesine</strong> dönüştürülecek ve şifreli olarak Apple tarafından denetlenecek. Fotoğrafları şifreleyerek yapay zeka ile analiz edecek olan <a href="https://www.teknoburada.net/2021/08/10/yeni-macbook-pro-apple-m2-ile-fisek-atacak/">Apple</a>&#8216;a bu tepkilerin gelmesi oldukça ilginç.</p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-179081" src="https://www.teknoburada.net/wp-content/uploads/2021/08/iOS-15-Beta-5.jpg" alt="iOS 15 Beta 5" width="1200" height="675" srcset="https://www.teknoburada.net/wp-content/uploads/2021/08/iOS-15-Beta-5.jpg 1200w, https://www.teknoburada.net/wp-content/uploads/2021/08/iOS-15-Beta-5-300x169.jpg 300w, https://www.teknoburada.net/wp-content/uploads/2021/08/iOS-15-Beta-5-1024x576.jpg 1024w, https://www.teknoburada.net/wp-content/uploads/2021/08/iOS-15-Beta-5-768x432.jpg 768w" sizes="auto, (max-width: 1200px) 100vw, 1200px" /></p>
<p>Söz konusu çocuk istismarı olunca firmaların ağız birliği yapması gerekiyordu. Ancak bir anda herkes meraklısıymış gibi Apple&#8217;a cephe aldı. iOS 15 ile kullanıma sunulacak olan bu özellik hakkında Apple&#8217;dan daha net ve açıklayıcı bilgilerin gelmesi gerekiyor. Su bulandı bir kere. Cupertinolu teknoloji devi bu iddiaları boşa çıkarmak için bakalım kendini nasıl savunacak?</p>
<p><a href="https://www.teknoburada.net/apple-calisanlari-endiseli-peki-neden/">Apple Çalışanları Endişeli! Peki, Neden?</a> yazısı ilk önce <a href="https://www.teknoburada.net">TeknoBurada</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
