Apple Menunda Rencana Untuk Memindai Porno Anak di iOS
Latest

Apple Menunda Rencana Untuk Memindai Porno Anak di iOS

Pada hari Senin 13 Desember 2021 Apple merilis versi final iOS 15.2. Perusahaan menutup beberapa kerentanan keamanan dengan pembaruan dan membawa beberapa fitur baru, termasuk perlindungan baru untuk anak-anak yang mencakup peringatan tentang konten eksplisit di iMessage dan perlindungan untuk pencarian melalui Siri, Spotlight, dan Safari. Perubahan ini diumumkan oleh perusahaan pada awal tahun 2021.

Perlindungan berarti bahwa di iOS 15.2 orang tua dapat mengaktifkan peringatan jika anak-anak mereka menerima atau mengirim konten eksplisit.

Perubahan dijelaskan secara rinci di halaman web keselamatan anak Apple, tetapi posting Reddit mencatat bahwa bagian telah menghilang dari halaman ini: pengumuman tinjauan CSAM foto iCloud.

Halaman Apple tentang fitur keselamatan anak yang akan datang awalnya ditayangkan pada 5 Agustus. Versi terbaru tertanggal 13 Desember dan telah menghapus referensi apa pun ke informasi yang berkaitan dengan tinjauan CSAM. Paragraf yang sesuai pada halaman sebelumnya merupakan yang paling komprehensif dari tiga fitur keamanan. Selain itu, Apple telah merujuk pada dokumentasi teknis seperti kertas putih dan tinjauan inovasi oleh para peneliti. PDF ini sendiri masih online, tetapi sekarang semua tautan dari halaman pengumuman hilang.

Apple telah menerima reaksi keras atas pengumumannya bahwa mereka akan memeriksa foto iCloud untuk gambar yang mewakili Materi Pelecehan Seksual Anak. Orang-orang jelas lebih khawatir bahwa itu akan menjadi pelanggaran privasi mereka sendiri daripada cara untuk melindungi anak-anak. Tetapi tidak setiap pengguna Apple adalah orang tua. Craig Federighi dari Apple menjelaskan bahwa pemindaian foto Apple telah “disalahpahami secara luas” dalam sebuah wawancara dengan Wall Street Journal pada bulan Agustus.

Perusahaan kemudian memperbarui halaman web keselamatan anak pada September 2021 untuk mengatakan:

“Sebelumnya kami mengumumkan rencana untuk fitur yang dimaksudkan untuk membantu melindungi anak-anak dari predator yang menggunakan alat komunikasi untuk merekrut dan mengeksploitasi mereka dan untuk membantu membatasi penyebaran Materi Pelecehan Seksual Anak. Berdasarkan umpan balik dari pelanggan, kelompok advokasi, peneliti, dan lainnya, kami telah memutuskan untuk mengambil waktu tambahan selama beberapa bulan mendatang untuk mengumpulkan masukan dan melakukan perbaikan sebelum merilis fitur keselamatan anak yang sangat penting ini.”

Dan sekarang, rencana Apple dalam hal ini sekarang tidak jelas. Apakah rencana tersebut masih ditunda atau tidak lagi direncanakan sama sekali.

Semoga Apple dapat menemukan cara untuk mengidentifikasi materi kriminal semacam ini yang tidak dirasakan oleh pengguna Apple sebagai pelanggaran privasi mereka sendiri.

Artikel ini awalnya muncul di Macwelt. Terjemahan oleh Karen Haslam.


Posted By : keluaran hongkong malam ini