Kabayaran Para Sa Pag -Sign Ng Zodiac
Substability C Mga Kilalang Tao

Alamin Ang Pagiging Tugma Sa Pamamagitan Ng Pag -Sign Ng Zodiac

Ipinaliwanag: Paano i-scan ng Apple ang mga larawan ng pagsasamantala ng bata sa mga device, at kung bakit ito nagtataas ng kilay

Inaasahang magiging live sa United States sa simula, kasama sa mga feature ang paggamit ng bagong teknolohiya para limitahan ang pagkalat ng CSAM online, lalo na sa pamamagitan ng Apple platform.

Sa isang post sa blog, ipinaliwanag ng Apple na gagamit ito ng mga cryptography application sa pamamagitan ng iOS at iPadOS upang tumugma sa mga kilalang CSAM na larawan na nakaimbak sa iCloud Photo.

Inihayag ito ng Apple Ang mga update sa software sa huling bahagi ng taong ito ay magdadala ng mga bagong feature na tutulong na protektahan ang mga bata mula sa mga mandaragit na gumagamit ng mga tool sa komunikasyon para recruit at pagsamantalahan sila, at limitahan ang pagkalat ng Child Sexual Abuse Material (CSAM).







Inaasahang magiging live sa United States sa simula, kasama sa mga feature ang paggamit ng bagong teknolohiya para limitahan ang pagkalat ng CSAM online, lalo na sa pamamagitan ng Apple platform.

Pagkatapos ay magkakaroon ng proteksyon sa device para sa mga bata mula sa pagpapadala o pagtanggap ng sensitibong content, na may mga mekanismo para alertuhan ang mga magulang kung sakaling wala pang 13 taong gulang ang user. Makikialam din ang Apple kapag ginamit ang Siri o Search para maghanap ng mga paksang nauugnay sa CSAM .



Anong teknolohiya ang ginagawa ng Apple upang maiwasan ang pagkalat ng CSAM online?

Sa isang post sa blog, ipinaliwanag ng Apple na gagamit ito ng mga cryptography application sa pamamagitan ng iOS at iPadOS upang tumugma sa mga kilalang CSAM na larawan na nakaimbak sa iCloud Photo. Tutugma ang teknolohiya sa mga larawan sa iCloud ng isang user sa mga kilalang larawang ibinigay ng mga organisasyong pangkaligtasan ng bata. At ito ay ginagawa nang hindi aktwal na nakikita ang imahe at sa pamamagitan lamang ng paghahanap para sa kung ano ang tulad ng isang fingerprint match. Kung sakaling may mga laban na lumalampas sa isang limitasyon, iuulat ng Apple ang mga pagkakataong ito sa National Center for Missing and Exploited Children (NCMEC).

Nilinaw ng Apple na ang teknolohiya nito ay nagpapanatili sa privacy ng user sa isip, at samakatuwid ang database ay binago sa isang hindi nababasang hanay ng mga hash na ligtas na nakaimbak sa mga device ng mga user. Idinagdag nito na bago mag-upload ng anumang larawan sa iCloud, itutugma ito ng operating system laban sa mga kilalang CSAM hash gamit ang isang cryptographic na teknolohiya na tinatawag na private set intersection. Tutukuyin din ng teknolohiyang ito ang isang tugma nang hindi inilalantad ang resulta.



Sa puntong ito, gagawa ang device ng cryptographic safety voucher na may resulta ng pagtutugma at karagdagang naka-encrypt na data at sine-save ito sa iClouds na may larawan. Tinitiyak ng threshold secret sharing technology na ang mga voucher na ito ay hindi mabibigyang-kahulugan ng Apple maliban kung ang iCloud Photos account ay lumampas sa isang threshold ng kilalang CSAM na nilalaman. Ang threshold na ito, inaangkin ng blog, ay inilagay sa lugar upang magbigay ng napakataas na antas ng katumpakan at tinitiyak na mas mababa sa isa sa isang trilyong pagkakataon bawat taon ng maling pag-flag ng isang account. Kaya ang isang larawan ay malamang na hindi mag-trigger ng alerto.



Ngunit kung nalampasan ang threshold, maaaring bigyang-kahulugan ng Apple ang mga nilalaman ng mga voucher sa kaligtasan at manu-manong suriin ang bawat ulat para sa isang tugma, i-disable ang account ng user, at magpadala ng ulat sa NCMEC. Sinabi ng Apple na ang mga user ay makakapag-apela kung sa tingin nila ay mali silang na-flag.

Paano gumagana ang iba pang mga tampok?

Ang bagong kaligtasan ng komunikasyon ng Apple para sa Messages ay magpapalabo ng isang sensitibong larawan at babalaan ang isang bata tungkol sa katangian ng nilalaman. Kung naka-enable mula sa backend, maaari ding sabihin sa bata na naalerto ang kanilang mga magulang tungkol sa mensaheng kanilang tiningnan. Ang parehong ay ilalapat kung ang bata ay nagpasya na magpadala ng isang sensitibong mensahe. Sinabi ng Apple na ang Messages ay gagamit ng on-device na machine learning upang pag-aralan ang mga attachment ng larawan at matukoy kung ang isang larawan ay tahasang sekswal at hindi magkakaroon ng access ang Apple sa mga mensahe. Darating ang feature bilang isang update sa mga account na naka-set up bilang mga pamilya sa iCloud para sa pinakabagong mga bersyon ng operating system.
Gayundin, sa pag-update, kapag sinubukan ng isang user na maghanap ng mga potensyal na paksa ng CSAM, ipapaliwanag ng Siri at Search kung bakit ito ay maaaring nakakapinsala at may problema. Makakakuha din ang mga user ng gabay kung paano maghain ng ulat tungkol sa pagsasamantala sa bata kung hihilingin nila ito.



Gayundin sa Ipinaliwanag| Ipinaliwanag: Paano at bakit mag-aalok ang Google ng higit pang proteksyon sa mga bata online

Bakit ginagawa ito ng Apple at ano ang mga alalahanin na itinataas?

Ang mga malalaking tech na kumpanya ay sa loob ng maraming taon ay nasa ilalim ng presyon upang sugpuin ang paggamit ng kanilang plataporma para sa pagsasamantala sa mga bata. Maraming mga ulat ang nagsalungguhit sa paglipas ng mga taon kung gaano sapat ang hindi nagawa upang pigilan ang teknolohiya sa paggawa ng CSAM na nilalaman na mas malawak na magagamit.

Gayunpaman, ang anunsyo ng Apple ay natugunan ng kritisismo na may maraming salungguhit kung paano ito eksakto ang uri ng teknolohiya sa pagsubaybay na gustong magkaroon ng maraming pamahalaan at gustong gamitin sa maling paraan. Ang katotohanan na ito ay nagmula sa Apple, na matagal nang naging botante ng privacy, ay nagulat sa marami.



Gayundin, ang mga eksperto sa cryptography tulad ni Matthew Green ng Johns Hopkins University ay nagpahayag ng pangamba na ang system ay maaaring gamitin upang i-frame ang mga inosenteng tao na nagpapadala sa kanila ng mga larawang nilayon upang ma-trigger ang mga tugma para sa CSAM. Nagawa ito ng mga mananaliksik nang madali, sinabi niya sa NPR, idinagdag na posible na lokohin ang mga naturang algorithm.

Ngunit sinipi ng The New York Times ang punong opisyal ng privacy ng Apple na si Erik Neuenschwander na nagsasabi na ang mga tampok na ito ay hindi nangangahulugang anumang bagay na naiiba para sa mga regular na gumagamit.



Kung nag-iimbak ka ng isang koleksyon ng materyal ng CSAM, oo, masama ito para sa iyo, sinabi niya sa publikasyon.

Newsletter| Mag-click upang makuha ang pinakamahusay na mga tagapagpaliwanag ng araw sa iyong inbox

May mga katulad ba na teknolohiya ang ibang malalaking kumpanya ng teknolohiya?

Oo. Sa katunayan, ang Apple ay medyo huli na lumahok sa eksena dahil inaalerto ng Microsoft, Google at Facebook ang mga ahensyang nagpapatupad ng batas tungkol sa mga larawan ng CSAM. Ang Apple ay nahuhuli dahil ang anumang naturang teknolohiya ay labag sa labis na sinasabing pangako sa privacy ng user. Bilang resulta, noong 2020, nang ang Facebook ay nag-ulat ng 20.3 milyong mga paglabag sa CSAM sa NCMEC, ang Apple ay maaaring mag-ulat lamang ng 265 na mga kaso, iniulat ng The New York Times.

Ngayon pa lang nahanap na nito ang teknolohiyang sweetspot para magawa ito nang hindi naaapektuhan ang mga regular na user, o hindi man lang sila kinatatakutan. Gayunpaman, tulad ng ipinakita ng unang backlash, ito ay isang mahigpit na lakad.

Ibahagi Sa Iyong Mga Kaibigan: