Apple iMessage çıplak içerik raporlama özelliğine kavuşuyor

sıcakkafa

Yeni Üye
Apple, kripto mesajlaşma uygulaması iMessage'a çıplak içerik için bir raporlama işlevi entegre ediyor. Guardian'ın haberine göre, iOS 18.2'den itibaren ilk kullanıcıların işletim sistemi tarafından yerel olarak çıplak içerik olarak tanınan fotoğraf ve videoları doğrudan Apple'a bildirmesi mümkün olacak. Bu, tüm Apple işletim sistemlerinde yerleşik olan ve artık 13 yaşın altındaki çocuklar için varsayılan olarak etkinleştirilen “İletişim Güvenliği” özelliğinin bir parçasıdır. Ebeveynler ayrıca bu işlevi gençlerin cihazlarında ayarlayabilir ve isteğe bağlı olarak kendileri için etkinleştirebilir veya kapatabilir. .


Reklamcılık



Kullanıcılar çıplak fotoğraf ve mesajları Apple'a iletebilecek


Sistem, iMessage aracılığıyla alınan çıplak bir fotoğrafı tespit ederse, otomatik olarak tanınmaz hale getiriliyor ve alıcı, hassas içerik konusunda uyarılıyor. Bu noktada ilerleyen zamanlarda alınan kayıtların Apple'a aktarılmasına yönelik yeni bir fonksiyon ortaya çıkacak. İlgili fotoğraf veya videoların yanı sıra, Guardian eyaletleri tarafından yayınlanan bir iPhone bildirim iletişim kutusu olarak şirkete “sınırlı sayıda çevreleyen kısa mesaj” ve ihbarcının adı veya hesabı da gönderiliyor. Apple'ın içeriği inceleyeceği ve muhtemelen gerekli adımları atacağı belirtiliyor. Buna iMessage hesaplarının engellenmesi ve muhtemelen kolluk kuvvetlerine bilgi verilmesi de dahildir.

Guardian, yeni özelliğin ilk olarak Avustralya'da kullanıma sunulacağını çünkü mesajlaşma ve bulut hizmetlerine ilişkin yeni yasal kuralların yakında burada da geçerli olacağını belirtti. Ancak yeni raporlama fonksiyonunun dünya çapında tanıtılması planlanıyor.

Apple başlangıçta Avustralya'da (ve diğer ülkelerde) tasarıya, uçtan uca şifrelemeyle sağlanan iletişimin gizliliğini tehdit ettiğini öne sürerek karşı çıkmıştı. Kanun artık sağlayıcılara, şifreleme için bir arka kapı olmaksızın yasa dışı içerikleri bildirme konusunda daha fazla alan tanıyor.



Apple başlangıçta iPhone'lardaki iCloud fotoğraflarını kontrol etmek istiyordu


Çocukların cinsel istismarına yönelik materyallerle (CSAM) daha iyi mücadele etmek için Apple, birkaç yıl önce iCloud fotoğraflarını iPhone'da yerel olarak taramayı ve arka planda bulunan CSAM içeriğini otomatik olarak Apple'a aktarmayı düşündü. Müşterilerden, güvenlik araştırmacılarından ve sivil haklar aktivistlerinden gelen yoğun eleştirilerin ardından şirket projeyi durdurdu.

Çıplak filtre gibi paralel planlanan çocuk koruma fonksiyonları revize edilerek işletim sistemlerine entegre edildi. Kullanıcılar, sonuçta onları yine de görüntülemek için bu tür tanınmayan görsellere tıklayabilirler. iOS 18'den itibaren, 13 yaşın altındaki çocukların cihazlarında, ideal olarak yalnızca ebeveynlerin bildiği ekran süresi kodunun da girilmesi gerekir.

Apple son zamanlarda çeşitli çevreler tarafından özellikle iCloud'da CSAM ile mücadele etmek için yeterince çaba göstermemekle suçlanıyor. İddiaya göre, burada paylaşılan albümler aracılığıyla da taciz edici materyaller dağıtılıyor. ABD'de açılan toplu dava, şirketi bu tür materyalleri görmezden gelmekle suçluyor.




(1 pound = 0.45 kg)