Kakšne Nevarnosti Nevronskih Mrež Podcenjujemo? - Alternativni Pogled

Kazalo:

Kakšne Nevarnosti Nevronskih Mrež Podcenjujemo? - Alternativni Pogled
Kakšne Nevarnosti Nevronskih Mrež Podcenjujemo? - Alternativni Pogled

Video: Kakšne Nevarnosti Nevronskih Mrež Podcenjujemo? - Alternativni Pogled

Video: Kakšne Nevarnosti Nevronskih Mrež Podcenjujemo? - Alternativni Pogled
Video: Жизнь после смерти | НОВАЯ ПЕРЕДАЧА 2024, Maj
Anonim

Ste že kdaj na ulici srečali osebo, ki bi bila ena na ena kot vi? Oblačila, obraz, hoja, način komunikacije, navade so popolnoma enake vašim. Kot da bi bili skenirani in natisnjeni na tiskalniku. Sliši se nekoliko grozno, kajne? Zdaj si predstavljajte, da ste videli videoposnetek, v katerem takšna oseba pove nekaj o sebi. V najboljšem primeru se boste poskušali spomniti, ko ste hodili tako, da se niste spomnili ničesar, vendar bi to lahko rekli na kamero. Čeprav se vse to sliši kot preprosto sklepanje, je tehnologija že zelo blizu ustvarjanju takšnih ljudi. Obstajajo že, kmalu pa jih bo še veliko.

Od kod prihaja ponaredek?

Zdaj je že preveč stvari, ki jih običajno imenujemo ponaredki. Povsod so. Najdemo jih na fotografijah, v novicah, v proizvodnji blaga in v informativnih storitvah. Lažje je reči, kje ni nobenih pojavov, ki jih spremlja ta beseda. Medtem ko se lahko borite proti njim. Lahko preučite izvor fotografije, preverite značilnosti izdelka z blagovno znamko iz ponaredka in dvakrat preverite novice. Čeprav so novice ločena tema.

Dandanes potrošnik vsebine noče čakati in od svojega ustvarjalca zahteva takojšnjo produkcijo, včasih ga kakovost sploh ne zanima, glavna stvar je hitro. Tu nastanejo situacije, ko je nekdo nekaj rekel, drugi pa, ne da bi ga preveril, odvzel s svojih spletnih strani in časopisov. V nekaterih primerih je treba dolgo vrteti žogo in dokazati, da je bilo vse narobe.

Ni smisla razlagati, zakaj je vse to storjeno. Na eni strani so tisti, ki se želijo samo nasmejati situaciji, na drugi pa tisti, ki resnično niso vedeli, da se motijo. Ločeno mesto, približno na sredini, zasedajo tisti, za katere je tržno do dobička. To so lahko interesni vplivi na različnih ravneh, tudi na politični. Včasih je to namen ustvarjanja dobička. Na primer, sejanje panike na borzi in izvajanje donosnih poslov z vrednostnimi papirji. A pogosto je to posledica sovražnosti do človeka (podjetja, izdelka itd.), Da bi ga omalovažili. Preprost primer je "spuščanje" v gledanosti filma ali ustanove, ki nekomu ni zaželeno. Seveda je za to potrebna vojska tistih, ki bodo šli in ne marajo (včasih celo botov), ampak to je že druga zgodba.

Kaj je globinsko učenje?

Promocijski video:

V zadnjem času se ta izraz sliši vedno pogosteje. Včasih sploh ni povezan s primerom in je zmeden s čim drugim. Torej programski izdelek izgleda bolj impresivno.

Ne mislite, da so se koncept in osnovni principi strojnega učenja pojavili šele pred nekaj leti. V resnici so stari toliko let, da se mnogi od nas takrat sploh niso bili rojeni. Osnovna načela sistemov globokega učenja in matematični modeli njihovega dela so bili znani že v 80. letih prejšnjega stoletja.

Takrat zaradi pomanjkanja ene pomembne komponente niso imeli toliko smisla. Bila je visoka računalniška moč. Šele sredi 2000-ih so se pojavili sistemi, ki lahko pomagajo pri delu v tej smeri in omogočajo izračun vseh potrebnih informacij. Zdaj so se stroji še bolj razvili in nekateri sistemi strojnega vida, zaznavanja glasu in nekateri drugi delujejo tako učinkovito, da včasih celo presežejo sposobnosti človeka. Čeprav v odgovornih smereh še niso "zaprti", s čimer so dodatek človeškim zmožnostim in obenem ohranijo nadzor nad njimi.

Image
Image

Kaj je Deepfake? Kdaj se je pojavil Deepfake?

Lahko je uganiti, da je Deepfake majhna igra besed, povezanih z Deep Learningom in samimi ponaredki, o katerih sem govoril zgoraj. To pomeni, da bi moral Deepfake ponarediti ponaredke na novo raven in razvezati človeka v tem težkem poslu ter jim omogočiti, da ustvarijo ponarejene vsebine, ne da bi zapravili energijo.

Najprej se takšni ponaredki nanašajo na video. To pomeni, da lahko vsak človek sedi pred kamero, nekaj reče, njegov obraz pa bo zamenjan z drugo osebo. Zdi se strašljivo, kajti pravzaprav morate samo ujeti osnovne gibe človeka in ponastaviti ponaredka bo preprosto nemogoče. Poglejmo, kako se je vse začelo.

Prvo generativno tekmovalno mrežo je ustvaril študent na univerzi Stanford. Zgodilo se je leta 2014 in ime študenta je bilo Ian Goodfellow. Pravzaprav je postavil dve nevronski mreži drug proti drugemu, od katerih je ena sodelovala pri ustvarjanju človeških obrazov, druga pa jih je analizirala in govorila podobno ali ne. Tako sta trenirala drug drugega in nekega dne se je druga nevronska mreža začela zmešati in ustvarjene slike jemati resnično. Deepfake rodi prav vse bolj zapleten sistem.

Zdaj je eden glavnih predlagateljev ideje Deepfake Hao Li. Ne počne samo tega, ampak tudi številne druge. Za to so mu večkrat podelili različne nagrade, tudi neuradne. Mimogrede, on je eden tistih, ki bi se mu morali zahvaliti za pojav animojija v iPhone X. Če vas zanima, se lahko podrobneje seznanite z njim na njegovi spletni strani. Danes ni glavna tema razprav.

Spomnili smo se ga samo, ker je na Svetovnem gospodarskem forumu v Davosu pokazal svojo prijavo, ki vam bo omogočila, da obraz osebe, ki sedi pred kamero, zamenjate s katerim koli drugim obrazom. Zlasti je pokazal, kako sistem deluje na primeru obrazov Leonarda DiCapria, Willa Smitha in drugih znanih oseb.

Izgleda nekoliko grozljivo. Po eni strani lahko le občudujete sodobne tehnologije, ki omogočajo skeniranje obraza, spreminjanje v drugo na poti in izdelavo nove slike. Vse to traja delček sekunde in sistem niti ne upočasni. Se pravi, omogoča ne samo obdelavo končanega videa in zamenjavo obraza, ampak tudi sodelovanje takega lika v nekakšni video komunikaciji v živo.

Nevarnost Deepfakea. Kako spremenim obraz na videu?

Lahko govorite, kolikor vam je všeč, da je ta tehnologija potrebna, je zelo kul in vam ni treba klevetati. Lahko celo greste do skrajnosti in začnete govoriti, da je to položaj hudega starodobnika, ki se preprosto boji vsega novega, a resnično je več nevarnosti kot koristi.

S takšno tehnologijo, še posebej, če gre za odprtokodno programsko opremo, bo vsak lahko brskal in posnel kateri koli video. Ni slabo, če nekdo samo kljubuje časti in dostojanstvu, še huje pa je, če gre za izjavo, ki jo dajemo v imenu pomembne osebe. Tako lahko na primer s Timom Cookom posnamete video, dolg le 30–40 sekund, zrušite skoraj celotno informacijsko sfero ZDA, ki jo vodi Apple. Borza bo prizadeta tako močno, da bo med vlagatelji sejala panika. Posledično bo na tisoče ljudi izgubilo milijarde dolarjev.

Kdor ne mara takšnega načina zaslužka, bo rekel, da je to tisto, kar potrebujejo, naj gre v obrat. Toda po najbolj žalostnem scenariju po tem ne bo rastlin. Poleg tega je pokotno, da dobimo osebo, ki vara za nihanje vrednosti vrednostnih papirjev. Dovolj je samo, da jih pravočasno kupite in prodate.

Razmere bi se lahko še poslabšale, če bi "šaljivec" spregovoril v imenu voditelja velike države. Seveda se bo potem vse razkrilo, toda v tem času lahko naredite veliko neprijetnih stvari. Glede na to bi bila preprosto zamenjava obraza slavnega igralca v filmu za odrasle nedolžna potegavščina.

Pri takšnih tehnologijah je glavna stvar skeniranje in potem je stvar tehnologije. V pravem pomenu besede
Pri takšnih tehnologijah je glavna stvar skeniranje in potem je stvar tehnologije. V pravem pomenu besede

Pri takšnih tehnologijah je glavna stvar skeniranje in potem je stvar tehnologije. V pravem pomenu besede.

Lahko si predstavljate nasprotno situacijo, ko resnični človek nekaj reče in nato vsem zagotovi, da je bil uokvirjen. Kako je biti v tej situaciji, tudi ni zelo jasno. To bo povzročilo tako zmedo v virih novic, da je preprosto ni mogoče dvakrat preveriti v drugem viru. Posledično bo postalo na splošno nejasno, kaj je res in kaj je na tem svetu lažno. Slika iz filmov o turobni prihodnosti, kot sta Surrogates ali Terminator, kjer se je T-1000 predstavil kot drugi ljudje in med drugim poklical Johna Conorja v imenu svoje posvojiteljice.

Zdaj niti ne govorim o še eni zlorabi, ki bo omogočila zbiranje lažnih dokazov. Glede na to postane vsa zabava igrač preveč dvomljiva.

Kako zaznati Deepfake?

Težava sploh ni v tem, da bi bilo treba take sisteme prepovedati, ampak da to ni več mogoče. Tam so že tam, razvoj tehnologij, vključno z branjem obrazov, pa je privedel do njihovega pojava in širjenja odprtokodnih virov. Tudi če si predstavljamo, da bo sistem v sedanji obliki prenehal obstajati, moramo razumeti, da bo nastal na novo. Še enkrat bodo naučili nevronske mreže, da delujejo med seboj in to je to.

Zaenkrat ni vse tako strašljivo in ponaredka lahko dobesedno prepoznate s prostim očesom. Slika je podobna, a precej groba. Poleg tega ima včasih nekaj težav z mešanjem, zlasti okoli robov obraza. Toda nič ne miruje in tega sploh ni težko razviti. Isti Hao Li je prepričan, da to ne bo trajalo več kot nekaj mesecev, in za izdelavo "mask", ki jih niti računalnik ne more razlikovati, bo trajalo še nekaj let. Po tem ne bo obračanja nazaj.

Po eni strani algoritem, ki ga YouTube in Facebook že ustvarjata, lahko zaščiti pred tem. Mimogrede, slednji je celo odprl natečaj za razvoj tehnologije prepoznavanja - Deepfake Detection Challenge ("Naloga odkrivanja deepfaksov"). Nagradni sklad za to tekmovanje znaša 10 milijonov dolarjev. Tekmovanje že poteka in se bo končalo marca 2020. Še vedno lahko imate čas za sodelovanje.

Zamenjava obraza v videoposnetku ni več težava
Zamenjava obraza v videoposnetku ni več težava

Zamenjava obraza v videoposnetku ni več težava.

Morda je ta velikodušnost posledica ponarejenega videa s samim Markom Zuckerbergom. Če sta ti dve stvari povezani, pojav takšne konkurence ne preseneča.

Če se zamenjani obraz popolnoma ujema z izvirnikom, bo nasprotna sila, ki jo predstavlja posebno nevronsko omrežje, brez moči. V tem primeru bo morala ujeti minimalne razlike v obrazni mimiki, gibih in načinu govora. V primeru znanih ljudi bo tak problem rešen na ravni video storitve, saj isti YouTube ve, kako se premika običajni Donald Trump. Ko gre za manj znano osebo, postane bolj zapletena. Čeprav je to mogoče dokazati tudi tako, da ga postavimo pred kamero in sprostimo, medtem ko nevronska mreža analizira njegovo gibanje. Izkazalo se bo, da je nekaj takega, kot je preučevanje prstnega odtisa, toda, kot lahko vidimo, bo to spet vodilo v nepotrebne težave.

Zaobiti je mogoče tudi šivanje sistemov za video overjanje v fotoaparate. S kamero lahko določite, da je posnel video posnetek in jasno, da ni bil posnet prek ločene aplikacije ali obdelan v posebnem programu. Kaj pa videoposnetki, ki so pravkar obdelani? Na primer urejen intervju. Kot rezultat bomo dobili video, v katerem izvirnega ključa ne bo več.

Nekaj memov na koncu
Nekaj memov na koncu

Nekaj memov na koncu.

Ali lahko rečemo, da smo zdaj skicirali enega od scenarijev temne prihodnosti? Na splošno da. Če tehnologije, ki so bile ustvarjene za doseganje dobrih ciljev, uidejo izpod nadzora, jih lahko srkamo od žalosti. Pravzaprav obstaja veliko možnosti za tako nevarne tehnologije, vendar jih je večina zaščitenih. Na primer jedrska fuzija. Tu imamo opravka s kodo, ki jo lahko dobi kdorkoli.

V komentarje napišite, kako vidite zaščito pred ponarejanjem, če upoštevate, da je sistem za maskiranje lahko naredil maske popolnoma enake originalnim obrazom. In ker so na videu, jim ne morete uporabiti niti prepoznavanja globine in glasnosti. Poleg tega predpostavimo, da se lahko vsaka koda in ključ, vgrajena v sliko, vdre. Kot pravijo, bi bilo za kaj. Zdaj lahko razpravljamo, vse uvodno je tam.

Artem Sutjagin