Apple Menunjukkan Bagaimana Sistem Pengesanan Kandungan Penderaan Seksual Kanak-Kanak Berfungsi Pada Peranti

Diterbitkan pada Ogos 14, 2021. Diubah suai kali terakhir pada . oleh .

Apple akan memperkenalkan sistem pengesanan kandungan penderaan kanak-kanak (CSAM) pada sistem operasi iOS, iPadOS dan macOS di Amerika Syarikat tahun ini. Menerusi sistem ini pihak berkuasa akan dihubungi sekiranya kandungan CSAM dikesan pada peranti dan akaun iCloud pengguna. Selepas menerima kritikan mengenai pelanggaran privasi, Apple menerbitkan dokumen bagaimana sistem CSAM akan berfungsi kelak.

Apple berkata mereka tidak menyimpan imej CSAM sebaliknya hanya mempunyai pangkalan data imej hash dalam bentuk hash yang diterima dari organisasi perlindungan kanak-kanak. Bagi memastikan tiada campur tangan dari kerajaan, data imej hash dari dua organisasi akan digunakan bagi memastikan ada pertindanan data yang mengesahkan ia imej asli. Hanya selepas jumlah imej CSAM yang ditemukan melepasi tahap tertentu Apple akan menghubungi pihak berkuasa.

Data yang ditemukan kemudiannya boleh diaudit oleh pihak ketiga yang bebas dari campur tangan Apple dan pihak kerajaan untuk pengesahan. Audit akan dilakukan sepenuhnya di kampus Apple. Walaupun pelbagai sistem ini akan digunakan, Apple masih dikritik kerana dilihat memberikan pintu belakang yang boleh digunakan untuk mengintip peranti pengguna di masa hadapan. Pada waktu ini sistem pengesanan CSAM akan hanya diaktifkan di Amerika Syarikat dengan perancangan mengembangkannya ke negara lain mengikut undang-undang setempat.

Komen sekarang

komen

© Amanz / 2021 Kami