Kako So Se Nevronske Mreže Naučile Ponarejati Sliko Novic - Alternativni Pogled

Kazalo:

Kako So Se Nevronske Mreže Naučile Ponarejati Sliko Novic - Alternativni Pogled
Kako So Se Nevronske Mreže Naučile Ponarejati Sliko Novic - Alternativni Pogled

Video: Kako So Se Nevronske Mreže Naučile Ponarejati Sliko Novic - Alternativni Pogled

Video: Kako So Se Nevronske Mreže Naučile Ponarejati Sliko Novic - Alternativni Pogled
Video: Редкая и невероятно мощная здоровая медитация - Стань гением - Бинауральная музыка 2024, April
Anonim

Za ustvarjanje ponaredkov se uporabljajo sistemi umetne inteligence in tehnologije za ustvarjanje video in avdio ponaredkov.

Da bi ustvarili "posamično" novico za vsakogar od nas in ponarejali izbrana medijska poročila, so danes dovolj prizadevanja enega programerja. O tem so za Izvestie povedali strokovnjaki za umetno inteligenco in kibernetsko varnost. Pred kratkim so ocenili, da to zahteva delo več ekip. Takšno pospeševanje je postalo možno z razvojem tehnologij za napade na nevronske mreže in ustvarjanjem zvočnih in video ponaredkov s pomočjo programov za ustvarjanje "globokih ponaredkov". Časnik Izvestia je pred kratkim doživel podoben napad, ko so trije libijski informativni portali naenkrat objavili sporočilo, ki se domnevno pojavlja v eni od številk. Po mnenju strokovnjakov lahko v roku 3-5 let pričakujemo invazijo robotskih manipulatorjev, ki bodo samodejno lahko ustvarili veliko ponaredkov.

Pogumen nov svet

Vse več je projektov, ki informacijsko sliko prilagajajo dojemanju določenih uporabnikov. En primer njihovega dela je bila nedavna akcija treh libijskih portalov, ki so 20. novembra objavljali novice, ki naj bi bile tiskane v številki Izvestije. Ustvarjalci ponaredka so spremenili naslovnico časopisa in na njej objavili sporočilo o pogajanjih med feldmaršalom Khalifo Haftar in premierjem vlade nacionalnega sporazuma (PNS) Fayezom Sarrajjem. Ponarejenca, v pisavi Izvestia, je spremljala fotografija dveh voditeljev, posneta maja 2017. Oznaka z logotipom publikacije je bila izrezana iz dejanske izdane izdaje z dne 20. novembra, vsa ostala besedila pa na strani iz številke 23. oktobra.

Z vidika specialistov je mogoče v bližnji prihodnosti takšne ponaredke storiti samodejno.

Image
Image

"Tehnologije umetne inteligence so zdaj popolnoma odprte, naprave za sprejemanje in obdelavo podatkov pa miniaturnizirajo in postajajo cenejše," je za Izvestije povedal direktor fizikalnih in matematičnih znanosti Jurij Vilsiter, profesor Ruske akademije znanosti. - Zato je zelo verjetno, da v bližnji prihodnosti ne bodo niti države in velike korporacije, ampak preprosto zasebniki lahko prisluškovali in vohunili za nami ter manipulirali z resničnostjo. V prihodnjih letih bo mogoče z analizo uporabniških preferenc vplivati nanj s pomočjo novic in zelo pametnih ponaredkov.

Promocijski video:

Po Juriju Vilsiterju tehnologije, ki jih je mogoče uporabiti za tak poseg v duševno okolje, že obstajajo. Teoretično lahko vdor manipulacijskih botov pričakujemo čez nekaj let, je dejal. Omejitev pri tem je morda potreba po zbiranju velikih zbirk podatkov primerov dejanskih odzivov ljudi na umetne dražljaje s sledenjem dolgoročnim posledicam. Takšno sledenje bo verjetno zahtevalo še nekaj let raziskav, preden se ciljno napadi nenehno pridobivajo.

Vidni napad

Aleksej Parfentiev, vodja oddelka za analitiko pri SearchInformu, se strinja z Jurijem Vilsiterjem. Po njegovem mnenju strokovnjaki že napovedujejo napade na nevronske mreže, čeprav zdaj takih primerov praktično ni.

- Raziskovalci iz Gartnerja verjamejo, da bo do leta 2022 30% vseh kibernetskih napadov namenjenih korupciji podatkov, po katerih nevronska mreža trenira in krade že pripravljene modele strojnega učenja. Nato lahko na primer brezpilotna vozila nenadoma začnejo zmotiti pešce za druge predmete. In ne bomo govorili o finančnem ali reputacijskem tveganju, temveč o življenju in zdravju običajnih ljudi, je prepričan strokovnjak.

V okviru raziskav se zdaj izvajajo napadi na računalniške sisteme vida. Namen takšnih napadov je prisiliti nevronsko mrežo, da na sliki zazna, česa tam ni. Ali obratno, da ne vidimo, kaj je bilo načrtovano.

Image
Image

"Ena izmed aktivno razvijajočih se tematik na področju usposabljanja nevronskih mrež so tako imenovani adversarialni napadi (" adversarialni napadi. "- Izvestije)," je pojasnil Vladislav Tuškanov, spletni analitik v laboratoriju Kaspersky. - V večini primerov so usmerjeni v sisteme računalniškega vida. Če želite izvesti tak napad, morate v večini primerov imeti popoln dostop do nevronske mreže (tako imenovani napadi z belih oken) ali do rezultatov njenega dela (napadi na črno polje). Ni načinov, ki bi lahko v 100% primerov zavedli kateri koli sistem računalniškega vida. Poleg tega so že bila ustvarjena orodja, ki vam omogočajo testiranje nevronskih mrež na odpornost na nasprotne napade in povečanje njihove odpornosti.

Med takim napadom napadalec skuša nekako spremeniti prepoznano sliko, tako da nevronska mreža ne deluje. Pogosto je na fotografiji postavljen hrup, podoben tistemu, ki se pojavi pri fotografiranju v slabo osvetljeni sobi. Človek običajno takšnih motenj ne opazi dobro, vendar nevronska mreža začne delovati. Toda za izvedbo takega napada napadalec potrebuje dostop do algoritma.

Po besedah Stanislava Ashmanova, generalnega direktorja podjetja Neuroset Ashmanov, trenutno ni načinov za reševanje tega problema. Poleg tega je ta tehnologija na voljo vsem: povprečen programer jo lahko uporablja tako, da naloži potrebno odprtokodno programsko opremo iz storitve Github.

Image
Image

- Napad na nevronsko mrežo je tehnika in algoritmi zavajanja nevronske mreže, zaradi katerih nastanejo lažni rezultati, in jo v resnici zlomijo kot ključavnico vrat, - je prepričan Ašmanov. - Na primer, zdaj je povsem enostavno prisiliti, da sistem za prepoznavanje obrazov misli, da to niste vi, ampak Arnold Schwarzenegger pred njim - to se naredi z mešanjem aditivov, neopaznih za človeško oko, v podatke, ki vstopajo v nevronsko mrežo. Enaki napadi so možni za sisteme prepoznavanja govora in analiz.

Strokovnjak je prepričan, da se bo le še poslabšalo - te tehnologije so šle v maso, prevaranti jih že uporabljajo, zaščite pred njimi pa ni. Ker ni zaščite pred samodejnim ustvarjanjem video in avdio ponaredkov.

Globoki ponaredki

Tehnologije Deepfake, ki temeljijo na globinskem učenju (tehnologije globokega učenja nevronskih mrež. - Izvestije), že predstavljajo resnično grožnjo. Video ali zvočni ponaredki nastajajo z urejanjem ali prekrivanjem obrazov znanih oseb, ki naj bi izgovarjale potrebno besedilo in igrale potrebno vlogo v zapletu.

"Deepfake vam omogoča, da gibe ustnic in človeški govor zamenjate z videom, kar ustvarja občutek realizma dogajanja," pravi Andrey Busargin, direktor oddelka za inovativno zaščito blagovnih znamk in intelektualno lastnino pri Group-IB. - Lažni zvezdniki na družbenih omrežjih "ponujajo" uporabnike, da sodelujejo pri žrebanju dragocenih nagrad (pametnih telefonov, avtomobilov, denarnih vsot) itd. Povezave iz teh videoposnetkov pogosto vodijo do lažnih in lažnih spletnih mest, na katerih uporabniki zahtevajo, da vnesejo osebne podatke, vključno s podatki o bančnih karticah. Takšne sheme grozijo tako običajnim uporabnikom kot javnim osebam, ki jih omenjajo v reklamah. Zaradi tovrstnih shenaganov se znane osebnosti povežejo s prevarami ali oglaševanim blagom.in tu naletimo na osebno škodo znamke, "pravi.

Image
Image

Druga grožnja je povezana z uporabo "lažnih glasov" za telefonske goljufije. Na primer, v Nemčiji so spletna kriminala uporabila glasovno preobrazbo, da je vodja podružnice v Veliki Britaniji v telefonskem pogovoru nujno nakazal 220.000 EUR na račun madžarskega dobavitelja in se predstavljal kot vodja podjetja. Šef britanske firme je posumil na trik, ko je njegov "šef" zaprosil za drugi denarni nalog, toda klic je prišel z avstrijske številke. Do takrat je bila prva tranša že nakazana na račun na Madžarskem, od koder so denar dvignili v Mehiko.

Izkazalo se je, da trenutne tehnologije omogočajo ustvarjanje posamične slike novic, napolnjene s ponarejenimi novicami. Poleg tega bo kmalu mogoče razlikovati ponaredke od pravih video in avdio le strojno. Po mnenju strokovnjakov ukrepi, ki prepovedujejo razvoj nevronskih mrež, verjetno ne bodo učinkoviti. Zato bomo kmalu živeli v svetu, v katerem bo treba nenehno preverjati vse.

"Na to se moramo pripraviti in to moramo sprejeti," je poudaril Jurij Vilsiter. - Človeštvo ni prvič, ki prehaja iz ene resničnosti v drugo. Naš svet, način življenja in vrednote se radikalno razlikujejo od sveta, v katerem so živeli naši predniki pred 60.000 leti, pred 5.000 leti, pred 2.000 leti in celo pred 200 in 100 leti. V bližnji prihodnosti bo človek v veliki meri prikrajšan za zasebnost in bo zato prisiljen, da ničesar ne skriva in ravna pošteno. Obenem ne moremo ničesar v okoliški resničnosti in lastni osebnosti prevzeti na veri, vse bo treba podvomiti in nenehno preverjati. Toda ali bo ta prihodnost resnična? Ne. Preprosto bo povsem drugače.

Anna Urmantseva