Ipinaliwanag: Bakit inaantala ng Apple ang software nito na nag-scan para sa mga larawan ng pang-aabuso sa bata
Habang ang hakbang ay tinatanggap ng mga ahensya ng proteksyon ng bata, ang mga tagapagtaguyod ng digital privacy, at mga kasamahan sa industriya, ay nagtataas ng mga pulang bandila na nagmumungkahi na ang teknolohiya ay maaaring magkaroon ng malawak na batayan na mga epekto sa privacy ng user.

Kasunod ng pagpuna mula sa mga tagapagtaguyod ng privacy at mga kapantay sa industriya, naantala ng Apple ang paglulunsad ng software nito na tuklasin ang mga larawang naglalarawan ng pang-aabuso sa bata sa mga iPhone. Ang programa ay inihayag noong nakaraang buwan at nakatakdang ilunsad sa US sa huling bahagi ng taong ito.
Ano ang software ng Apple at paano ito gagana?
Noong nakaraang buwan, sinabi ng Apple na maglalabas ito ng mekanismong may dalawang pronged na mag-scan ng mga larawan sa mga device nito para tingnan kung may content na maaaring mauri bilang Child Sexual Abuse Material (CSAM). Bilang bahagi ng mekanismo, titingnan ng tool na neuralMatch ng Apple ang mga larawan bago ito i-upload sa iCloud — ang cloud storage service nito — at susuriin ang nilalaman ng mga mensaheng ipinadala sa end-to-end na naka-encrypt na iMessage app nito. Ang Messages app ay gagamit ng on-device na machine learning para balaan ang tungkol sa sensitibong content habang pinapanatili ang mga pribadong komunikasyon na hindi nababasa ng Apple, sinabi ng kumpanya.
Inihahambing ng neuralMatch ang mga larawan sa isang database ng koleksyon ng imahe ng pang-aabuso sa bata, at kapag may flag, manu-manong susuriin ng staff ng Apple ang mga larawan. Kapag nakumpirma na para sa pang-aabuso sa bata, aabisuhan ang National Center for Missing and Exploited Children (NCMEC) sa US.
Ano ang mga alalahanin?
Habang ang hakbang ay tinatanggap ng mga ahensya ng proteksyon ng bata, ang mga tagapagtaguyod ng digital privacy, at mga kasamahan sa industriya, ay nagtataas ng mga pulang bandila na nagmumungkahi na ang teknolohiya ay maaaring magkaroon ng malawak na batayan na mga epekto sa privacy ng user. Ito ay pinaniniwalaan na halos imposibleng bumuo ng isang client-side scanning system na ginagamit lamang para sa mga tahasang sekswal na larawan na ipinadala o natanggap ng mga bata, nang walang ganoong software na na-tweak para sa iba pang mga gamit. Ang anunsyo ay muling nagbigay pansin sa mga pamahalaan at mga awtoridad sa pagpapatupad ng batas na naghahanap ng backdoor sa mga naka-encrypt na serbisyo. Si Will Cathcart, Pinuno ng end-to-end na naka-encrypt na serbisyo sa pagmemensahe na WhatsApp, ay nagsabi: Ito ay isang Apple-built at pinapatakbo na surveillance system na napakadaling magamit upang i-scan ang pribadong nilalaman para sa anumang bagay na ipasiya nila o ng isang gobyerno na nais nitong kontrolin. Ang mga bansa, kung saan ibinebenta ang mga iPhone, ay magkakaroon ng iba't ibang kahulugan sa kung ano ang katanggap-tanggap.
| Kung ang susunod na iPhone ay may satellite connectivity, ito ang tech na gagamitin ng AppleBakit nag-backtrack ang Apple?
Sa isang pahayag, sinabi ng Apple na kakailanganin ng mas maraming oras upang mangolekta ng feedback at pagbutihin ang mga iminungkahing tampok sa kaligtasan ng bata pagkatapos ng pagpuna sa system sa privacy at iba pang mga batayan sa loob at labas ng kumpanya.
Batay sa feedback mula sa mga customer, advocacy group, researcher, at iba pa, nagpasya kaming maglaan ng karagdagang oras sa mga darating na buwan para mangolekta ng input at gumawa ng mga pagpapabuti bago ilabas ang mga kritikal na mahalagang feature sa kaligtasan ng bata, sabi nito.
Ayon sa Reuters, ang Apple ay naglalaro ng pagtatanggol sa plano sa loob ng maraming linggo at nag-alok na ng isang serye ng mga paliwanag at mga dokumento upang ipakita na ang mga panganib ng mga maling pagtuklas ay mababa.
Newsletter| Mag-click upang makuha ang pinakamahusay na mga tagapagpaliwanag ng araw sa iyong inbox
Ibahagi Sa Iyong Mga Kaibigan: