Kuidas „Deep Fake” nägu vahetatud videot paigutada
Hiljuti on Reddit jälle andnud uudiseid, kui inimesed kasutavad masinaõppevahendit, mida nimetatakse “Deep Fake”, et automaatselt asendada ühe inimese nägu teise video. Ilmselt, kuna see on internet, kasutavad inimesed seda kaheks: võlts kuulsus porn ja Nicolas Cage'i lisamine juhuslikesse filmidesse.
Kuigi kellegi näo vahetamine fotol on alati olnud suhteliselt lihtne, oli kellegi näo vahetamine videol olnud aeganõudev ja raske. Siiani on seda peamiselt teinud VFX-stuudiod suurte eelarvetega Hollywoodi filmide jaoks, kus näitleja nägu vahetatakse nende stuntile. Aga nüüd, koos Deep Fake'iga, saab igaüks, kellel on arvuti, seda teha kiiresti ja automaatselt.
Enne kaugemale minekut peate teadma, mida näeb välja Deep Fake. Vaadake allpool toodud SFW videot, mis koosneb erinevatest kuulsuste nägu vahetuslepingutest, mis hõlmavad peamiselt Nic Cage'i.
Deep Fake tarkvara töötab masinõppe abil. See on kõigepealt koolitatud sihtmärgiga. Sihtmärgi moonutatud pilte juhitakse läbi algoritmi ja see õpib, kuidas neid parandada, et sarnaneda muutmata sihtmärgiga. Kui algoritm toidab seejärel teise inimese pilte, siis eeldatakse, et nad on sihtmärgi moonutatud pilte ja üritavad neid parandada. Video saamiseks peab Deep Fake'i tarkvara toimima igal kaadril eraldi.
Põhjus, miks Deep Fakes on suures osas lihtsalt kaasatud, on see, et neist on palju materjale, mis on saadaval erinevatest vaatenurkadest, mis muudavad koolituse tõhusamaks (Nicolas Cage'il on IMDB-l 91 toimingut). Võttes aga arvesse fotode ja videote arvu, mida internetis postitatakse ja et algoritmi treenimiseks on tõesti vaja vaid 500 pilti, ei ole ka tavalisi inimesi võimalik sihtida, kuigi tõenäoliselt on see veidi vähem edukas.
Kuidas teha sügavat võltsimist
Just nüüd, Deep Fakes on üsna lihtne märkida, kuid see muutub raskemaks, kui tehnoloogia muutub paremaks. Siin on mõned annetused.
Imelik vaadates näod. Paljudes Deep Fakesides näevad näod imelikult. Funktsioonid ei sobi ideaalselt ja kõik lihtsalt tundub natuke vahajas nagu alloleval pildil. Kui kõik muu näib normaalne, kuid nägu näib imelik, on see ilmselt sügav võlts.
Vilgub. Paha Deep Fake videote ühiseks tunnuseks on nägu, et nägu hakkab vilkuma nägu ja algupärased funktsioonid avanevad. See on tavaliselt ilmsem näo servadel või kui midagi läheb selle ees. Kui juhtub imelik vilkumine, vaatate Deep Fake'i.
Erinevad asutused. Deep Fakes on ainult vahetuslepingud. Enamik inimesi püüab hea keha sobitada, kuid see pole alati võimalik. Kui inimene näib olevat märgatavalt raskem, kergem, kõrgem, lühem või tätoveeringud, mida neil ei ole reaalses elus (või neil pole tegelikus elus tätoveeringuid), on see hea võimalus. Allpool on näha tõesti ilmselge näide, kus Patrick Stewarti nägu on vahetatud J.K. Simmons filmi Whiplashi stseenis. Simmons on märkimisväärselt väiksem kui Stewart, seega tundub see lihtsalt kummaline.
Lühikesed klipid. Praegu, isegi kui Deep Fake tarkvara töötab ideaalselt ja loob peaaegu eristamatu näo vahetusprogrammi, võib see seda teha vaid lühikese aja jooksul. Enne liiga pikka aega algab üks ülaltoodud probleemidest. Sellepärast on enamik Deep Fake klippe, mida inimesed jagavad, vaid paar sekundit, ülejäänud kaadrid on kasutamiskõlbmatud. Kui olete näidanud väga lühikest kuulsust, mis teeb midagi, ja pole mingit põhjust, miks see on nii lühike, on aimugi, et see on sügav võlts.
Heli või halva huule sünkroonimine puudub. Deep Fake tarkvara reguleerib ainult näoomadusi; see ei tee maagiliselt, et üks inimene kõlab nagu teine. Kui klipi pole heli ja pole mingit põhjust, miks nad ei oleks heli, on see veel üks aimugi, mida vaatate Deep Fake'ile. Samamoodi, isegi kui on olemas heli, kui kõneldavad sõnad ei sobi õigesti liikuvate huultega (või kui huuled on kummaline, kui inimene räägib allpool olevast klippist), võib teil olla sügav võlts.
Uskumatud klipid. Üks selline on ütlematagi selge, aga kui teil on tõeliselt uskumatu klamber, siis on hea võimalus, et sa ei peaks seda tegelikult uskuma. Nicolas Cage pole kunagi mänginud Loki nime Marveli filmis. See oleks küll lahe.
Dubleerivad allikad. Sarnaselt võltsitud fotodele, kus video väidetavalt pärineb, on tihti suur ehtsus selle autentsuse suhtes. Kui New York Timesil on selle kohta lugu, on palju tõenäolisem, et tõsi, et midagi, mida avastate Redditi juhusliku nurga all.
Praegu on sügavad võltsingud rohkem kui kohutav uudishimu kui suur probleem. Tulemused on hõlpsasti nähtavad, ja kuigi on võimatu nõustuda sellega, mida tehakse, ei püüa keegi veel Deep Fakesi kui ehtsaid videoid välja jätta.
Kuna tehnoloogia muutub paremaks, on nad tõenäoliselt palju suurem probleem. Näiteks võib uskumatu võltskaadrid Kim Jong Unist, kes kuulutas USAsse sõda, põhjustada suurt paanikat.