Kabayaran Para Sa Pag -Sign Ng Zodiac
Substability C Mga Kilalang Tao

Alamin Ang Pagiging Tugma Sa Pamamagitan Ng Pag -Sign Ng Zodiac

Ipinaliwanag: Bakit nagiging mas mahirap na tuklasin ang mga deepfake na video, at ano ang mga implikasyon?

Ang potensyal na panganib ng deepfakes ay nakasalalay sa katotohanan na ang antas ng pagmamanipula ay napakaperpekto na maaaring tila imposible kung minsan na makilala ang mga ito mula sa mga tunay na video. At kapag nagiging mas mahirap na tuklasin ang kasinungalingan, mas malaki ang banta na taglay nito upang mawala bilang totoo at maging sanhi ng kalituhan na nilayon nito.

DeepfakeWala sa mga tao sa larawang ito ang totoo. Sila ay mga pekeng tao na binuo ng AI. (Pinagmulan: https://thispersondoesnotexist.com/)

Ang mga nadoktor na video o deepfakes ay isa sa mga pangunahing sandata na ginagamit sa mga laban sa propaganda sa loob ng ilang panahon ngayon. Tinutuya ni Donald Trump ang Belgium para sa pananatili sa kasunduan sa klima ng Paris, si David Beckham ay matatas na nagsasalita sa siyam na wika, si Mao Zedong na kumakanta ng 'I will survive' o sina Jeff Bezos at Elon Musk sa isang pilot episode ng Star Trek... lahat ng mga video na ito ay naging viral sa kabila ng pagiging peke, o dahil sila ay mga deepfake.







Noong nakaraang taon, sinabi ni Marco Rubio, ang Republican senator mula sa Florida, na ang mga deepfakes ay kasing lakas ng mga sandatang nuklear sa paglulunsad ng mga digmaan sa isang demokrasya. Noong unang panahon, kung gusto mong pagbantaan ang Estados Unidos, kailangan mo ng 10 carrier ng sasakyang panghimpapawid, at mga sandatang nuklear, at mga malayuang missile. Ngayon, kailangan mo lang ng access sa aming Internet system, sa aming banking system, sa aming electrical grid at imprastraktura, at higit pa, ang kailangan mo lang ay ang kakayahang gumawa ng isang napaka-makatotohanang pekeng video na maaaring makasira sa ating mga halalan, na maaaring magtapon sa ating bansa. sa napakalaking krisis sa loob at nagpapahina sa atin nang husto, Forbes panipi sa kanya bilang sinasabi.

Ang potensyal na panganib ng deepfakes ay nakasalalay sa katotohanan na ang antas ng pagmamanipula ay napakaperpekto na maaaring tila imposible kung minsan na makilala ang mga ito mula sa mga tunay na video. At kapag nagiging mas mahirap na tuklasin ang kasinungalingan, mas malaki ang banta na taglay nito upang mawala bilang totoo at maging sanhi ng kalituhan na nilayon nito. Ngunit sa mga mas sopistikadong tool na pinapagana ng artificial intelligence na available na ngayon para makagawa ng mga video na ito, nagiging mas mahirap bang tuklasin ang mga deepfakes?



Ano ang mga deepfakes at paano ito nilikha?

Ang mga deepfakes ay bumubuo ng pekeng nilalaman — kadalasan sa anyo ng mga video ngunit gayundin sa iba pang mga format ng media gaya ng mga larawan o audio — na nilikha gamit ang mga makapangyarihang tool sa artificial intelligence. Tinatawag silang deepfakes dahil gumagamit sila ng deep learning technology, isang sangay ng machine learning na naglalapat ng neural net simulation sa napakalaking data set, para gumawa ng pekeng content.

Gumagamit ito ng isang sangay ng artificial intelligence kung saan kung ang isang computer ay pinapakain ng sapat na data, maaari itong makabuo ng mga pekeng na kumikilos tulad ng isang tunay na tao. Halimbawa, maaaring matutunan ng AI kung ano ang hitsura ng pinagmulang mukha at pagkatapos ay i-transpose ito sa isa pang target para magsagawa ng face swap.



Ang application ng isang teknolohiyang tinatawag na Generative Adversarial Networks (GAN), na gumagamit ng dalawang AI algorithm — kung saan ang isa ay bumubuo ng pekeng content at ang isa ay nagbibigay ng marka sa mga pagsisikap nito, na nagtuturo sa system na maging mas mahusay — ay nakatulong sa pagbuo ng mas tumpak na deepfakes.

Ang GAN ay maaari ding makabuo ng mga larawang binuo ng computer ng mga pekeng tao, na ginamit ng isang website na tinatawag na 'This Person Does Not Exist'. Dahil dito, halos imposibleng matukoy kung totoo o peke ang mga video o larawang nakikita natin sa Internet.



Mahirap talagang tuklasin ang mga deepfakes. Halimbawa, maraming tao ang nabighani sa mga Tiktok na video ni Tom Cruise na naglalaro ng golf na kalaunan ay nabunyag na mga deepfake.

Nagiging mas mahirap ba ang pag-detect ng mga deepfakes?

Ang isang papel na ipinakita sa Winter Conference on Applications of Computer Vision 2021 ay naglalarawan ng isang bagong pamamaraan na ginagawang mas walang kabuluhan ang mga deepfakes, na nagpapahirap sa mga tradisyunal na tool na makita ang mga ito.



Ang pag-aaral, na pinamumunuan nina Paarth Neekhara at Shehzeen Samarah Hussain, parehong mga mag-aaral ng PhD sa University of California San Diego, ay natagpuan na ang mga tool sa pag-detect ay maaaring malinlang sa pamamagitan ng pagpasok ng bahagyang manipuladong input na tinatawag na adversarial na mga halimbawa sa bawat video frame.

PhDPaarth Neekhara at Shehzeen Samarah Hussain, mga mag-aaral ng PhD sa University of California San Diego, na nanguna sa pag-aaral. Si Neekhara ay isang 4th year PhD student sa Computer Science department habang si Hussain, nasa ika-4 na taon din ng kanyang PhD program, ay isang estudyante ng Electrical and Computer Engineering department.

Ang mga kasalukuyang makabagong pamamaraan para sa deepfake detection ay madaling ma-bypass kung ang kalaban ay may kumpleto o bahagyang kaalaman sa detector, sabi ng papel na pinamagatang 'Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples'.



Sa pakikipag-usap sa indianexpress.com, sinabi nina Neekhara at Hussain na ang mga karaniwang pamamaraan ng pag-detect ay maaaring malayo sa foolproof dahil hindi sila garantisadong makaka-detect ng mas kamakailang mga deepfake na video na na-synthesize gamit ang mga bagong diskarte na wala sa dataset at mahina ang mga ito sa mga adversarial input.

SUMALI KA NA :Ang Express Explained Telegram Channel

Ang mga adversarial input ay bahagyang binago na mga input na nagiging sanhi ng mga malalim na neural network na magkamali. Ang mga malalim na neural network ay ipinakita na mahina sa mga naturang input na maaaring magdulot ng pagbabago sa output ng classifier. Sa aming trabaho, ipinapakita namin na ang isang attacker ay maaaring bahagyang baguhin ang bawat frame ng isang deepfake na video upang ma-bypass nito ang isang deepfake detector at mauri bilang totoo, sabi nila.

DeepfakeMga adversarial na halimbawa para sa FaceForensics++ dataset na idinisenyo ng research team mula sa University of California San Diego para lokohin ang mga deepfake detector. ( https://adversarialdeepfakes.github.io/ )

Idinagdag nila, Ang umaatake ay maaaring gumawa ng isang maliit na hindi mahahalata na adversarial perturbation para sa bawat frame ng isang deepfake na video, idagdag ito sa frame at pagkatapos ay pagsamahin ang lahat ng mga video frame nang magkasama upang gawin ang adversarial video. Sa aming mga eksperimento gamit ang mga diskarteng ito, nakuha namin ang rate ng tagumpay (ng panloloko sa detector) na higit sa 90%.

Ano ang mga banta na dulot ng mga deepfake na video?

Sa pagdami ng mga malalalim na video, lumalaki ang pag-aalala na sila ay magiging sandata upang magpatakbo ng mga kampanyang pampulitika at maaaring pagsamantalahan ng mga awtoridad na rehimen.

Noong 2019, isang organisasyon sa pagsasaliksik na tinatawag na Future Advocacy at UK Artist Bill Posters ang gumawa ng video ni UK PM Boris Johnson at lider ng Labor Party na si Jeremy Corbyn na nag-eendorso sa isa't isa para sa post ng punong ministro. Sinabi ng grupo na ang video ay nilikha upang ipakita ang potensyal ng mga deepfakes na pahinain ang demokrasya.

Gayundin, noong nakaraang taon, bago ang mga botohan sa Delhi Assembly, naging viral ang mga video ng pangulo ng Delhi BJP na si Manoj Tiwari sa Ingles at Haryanvi. Sa mga video na ito, nakita si Tiwari na pinupuna si Arvind Kejriwal at hinihiling sa mga tao na bumoto para sa BJP. Ang mga video, na ibinahagi sa higit sa 5,000 mga grupo ng WhatsApp, ay nahayag na deepfake, iniulat ng digital media firm na si Vice.

Ang mga deepfakes ay isa ring dahilan ng pag-aalala sa panahong sinabi ng WHO na ang krisis sa Covid-19 ay nag-trigger ng isang infodemic at nagkaroon ng sadyang pagtatangka na magpakalat ng maling impormasyon upang pahinain ang tugon sa pampublikong kalusugan at isulong ang mga alternatibong agenda ng mga grupo o indibidwal.

Higit pa rito, ang mga dinoktor na video — na kinabibilangan ng pagmamanipula sa nilalaman sa pamamagitan ng paggamit ng maling selyo ng petsa o lokasyon, pag-clipping ng nilalaman upang baguhin ang konteksto, pagtanggal, pag-splice at katha — ay lalong ginagamit ngayon sa social media upang sadyang ipahayag nang mali ang mga katotohanan para sa mga layuning pampulitika. Karamihan sa mga video na ito ay hindi mga halimbawa ng deepfakes ngunit nagpapakita kung gaano kadaling i-obfuscate ang mga katotohanan at pagkalat ng mga kasinungalingan batay sa minamanipulang content na nagpapanggap bilang matibay na ebidensya.

Ang isa pang malaking alalahanin tungkol sa mga deepfake na video ay ang pagbuo ng hindi sinasadyang pornograpikong nilalaman. Noong 2017, isang user ang nag-deploy ng face-swapping algorithm para gumawa ng mga malalalim na pornographic na video ng mga celebrity gaya nina Scarlett Johansson, Gal Gadot, Kristen Bell at Michelle Obama, at ibinahagi ang mga ito sa isang banta sa Reddit na tinatawag na r/deepfake. Ang account ay may halos 90,000 subscriber sa oras na ito ay tinanggal noong Pebrero sa susunod na taon.

Sa libu-libong deepfake na video sa Internet, higit sa 90% ay hindi sinasang-ayunan na pornograpiya. Ang isa sa mga pinakanakakatakot na eksperimento ng AI noong nakaraang taon ay ang isang app na tinatawag na DeepNude na naghubad ng mga larawan ng mga babae — maaari itong kumuha ng mga litrato at pagkatapos ay magpalit ng mga damit ng kababaihan para sa lubos na makatotohanang mga hubo't hubad na katawan. Ang app ay tinanggal pagkatapos ng isang malakas na backlash.

Gayundin, tulad ng malawakang iniulat, ang mga deepfake na video ay lalong ginagamit upang makabuo ng revenge porn ng mga tinalikuran na manliligaw upang mang-harass ng mga kababaihan.

Ang banta na dulot ng mga Deepfake na video ay maliwanag na, sinabi nina Neekhara at Hussain sa indianexpress.com. May mga malisyosong user na gumagamit ng mga naturang video para siraan ang mga sikat na personalidad, magpakalat ng disinformation, impluwensyahan ang mga halalan at gawing polarize ang mga tao. Sa mas nakakakumbinsi at naa-access na deepfake na mga diskarte sa synthesis ng video, ang banta na ito ay naging mas malaki sa magnitude, idinagdag nila.

Mayroon bang crackdown sa simula?

Karamihan sa mga kumpanya ng social media tulad ng Facebook at Twitter ay nagbawal ng mga deepfake na video. Sinabi nila sa sandaling matukoy nila ang anumang video bilang isang deepfake, ito ay tatanggalin.

Ang Facebook ay nag-recruit ng mga mananaliksik mula sa Berkeley, Oxford, at iba pang mga institusyon upang bumuo ng isang deepfake detector. Noong 2019, nagsagawa ito ng Deepfake Detection Challenge na nakikipagtulungan sa mga lider ng industriya at mga eksperto sa akademiko kung saan nilikha at ibinahagi ang isang natatanging dataset na binubuo ng higit sa 100,000 video.

Gayunpaman, hindi lahat ng deepfakes ay maaaring matukoy nang tumpak at maaari din itong tumagal ng mahabang panahon para matagpuan at alisin ang mga ito. Bukod dito, maraming pornograpikong site ang hindi gumagamit ng parehong antas ng mga paghihigpit.

Sinabi nina Neekhara at Hussain, Upang mas tumpak na matukoy ang mga deepfake na video, kailangan namin ng mga mahuhusay na modelo sa pamamagitan ng pagsasama ng isang attacker habang sinasanay ang mga naturang modelo ng deepfake detection. Ang isang pangmatagalang solusyon ay ang pag-watermark o digital na pagpirma sa mga larawan at video mula sa device na nakunan ng mga ito. Dapat maputol ang watermark o digital signature kung ilalapat ang mga deepfake na diskarte tulad ng face swaps. Ang isang deepfake detector ay maaari lamang i-verify ang lagda o ang watermark. Gayunpaman, mangangailangan ito ng pagtatatag ng pamantayan ng watermarking sa lahat ng camera at mobile phone. Samakatuwid, maaari itong tumagal ng ilang sandali bago ito maging isang katotohanan.

Ibahagi Sa Iyong Mga Kaibigan: