Ini akan digabungkan dengan panduan baru di Siri dan Pencarian untuk mengarahkan pengguna ke sumber daya yang berguna, saat mereka melakukan pencarian terkait gambar pelecehan seksual terhadap anak.
Apple mengatakan, alat deteksi baru dirancang untuk melindungi privasi pengguna dan tidak mengizinkan perusahaan untuk memindai atau melihat album foto pengguna.
Sistem sebaliknya, mencari kecocokan berdasarkan database 'hash', sejenis sidik jari digital, dari gambar materi pelecehan seks anak yang diketahui yang disediakan oleh organisasi keselamatan anak.
Ini berarti sistem tidak melihat gambar itu sendiri, hanya sidik jari digital mereka, dan orang tua yang memotret anak-anak di kamar mandi misalnya, tidak akan ditandai.
Jika materi pelecehan seks anak dikonfirmasi, akun pengguna akan dinonaktifkan dan Pusat Nasional AS untuk Anak Hilang dan Tereksploitasi akan diberi tahu.
Pemindaian ini hanya akan dilakukan ketika pengguna mencoba mengunggah gambar ke perpustakaan foto iCloud mereka.
![iOS 15. [Apple]](https://media.suara.com/pictures/653x366/2021/06/08/17519-ios-15.jpg)
Jika ambang batas kecocokan untuk konten berbahaya terlampaui, Apple dapat meninjau konten secara manual untuk mengonfirmasi kecocokan itu dan mengirim laporan ke organisasi keselamatan.
Alat-alat baru akan mulai berlaku sebagai bagian dari pembaruan perangkat lunak iOS dan iPadOS 15 yang akan jatuh tempo pada musim gugur.
Baca Juga: Login Twitter Kini Bisa Pakai Akun Google dan Apple ID