Umetna Inteligenca Kot Terorist: Nove Varnostne Grožnje - Alternativni Pogled

Kazalo:

Umetna Inteligenca Kot Terorist: Nove Varnostne Grožnje - Alternativni Pogled
Umetna Inteligenca Kot Terorist: Nove Varnostne Grožnje - Alternativni Pogled

Video: Umetna Inteligenca Kot Terorist: Nove Varnostne Grožnje - Alternativni Pogled

Video: Umetna Inteligenca Kot Terorist: Nove Varnostne Grožnje - Alternativni Pogled
Video: The Last CIA Whistleblower: Drug Trafficking, Training Terrorists, and the U.S. Government 2024, Oktober
Anonim

Ruski znanstveniki so preučili in razvrstili grožnje uporabe umetne inteligence (AI) z vidika mednarodne informacijske in psihološke varnosti. Posebna pozornost je bila namenjena boju proti zlonamerni uporabi AI s strani teroristov. Rezultati raziskav so objavljeni v reviji Russia in Global Relations.

Nevarnosti zlonamerne uporabe AI

Potencialna nevarnost umetne inteligence za človeštvo je večkrat postala tema umetniških del in danes je eno najbolj razpravljanih vprašanj znanstvenega in tehnološkega razvoja. Čeprav je močan AI, ki je sposoben neodvisnega sistemskega razmišljanja in ima morda samozavedanje in voljo, še vedno daleč od ustvarjanja, pa različne napredne različice Slabe AI izvajajo specializirane naloge, ki so se pred 10 leti zdele kot znanstvena fantastika. Uporaba AI v dobre namene (na primer v medicini) že prinaša nedvomne koristi. Toda v rokah terorističnih in drugih kriminalnih združb lahko postopoma cenejše in naprednejše tehnologije AI postanejo bolj strašno orožje kot jedrske.

Raziskovalci iz različnih držav aktivno preučujejo grožnje, ki jih zlonamerna uporaba AI predstavlja družbi kot celoti in nekaterim sferam človeške dejavnosti, pa naj gre za politiko, ekonomijo, vojaške zadeve itd. Vendar pa grožnje, ki jih povzročajo mednarodni informacijski in psihološki varnosti, še niso bile opredeljene kot neodvisne. obseg obravnave. Medtem je uporaba AI za destabilizacijo mednarodnih odnosov s ciljanimi visokotehnološkimi informacijami in psihološkim vplivom na ljudi očitno velika nevarnost.

Avtorji študije so predlagali razvrstitev groženj zlonamerni uporabi umetne inteligence na podlagi številnih meril, vključno s teritorialno pokritostjo, hitrostjo in obliko širjenja. Uporaba klasifikacije vam bo pomagala najti načine za preprečevanje in razvoj orodij za odzive.

„Prihodnje znižanje stroškov tehnologij AI lahko ustvari grožnje za temeljito nove teroristične napade. Mogoče je, da bo klepet uporabljen za oblikovanje sporočila o ponarejenem dogodku in prepričanje potencialnih žrtev, da ga obiščejo. Da bi se zoperstavili, je priporočljivo, da družbo seznanite z novimi grožnjami, občanom pa naročite, naj bodo previdni pri oddaljenih stikih z ljudmi, s katerimi osebno niso seznanjeni. Izhod bi lahko bilo certificiranje javnih dogodkov, ki bi potrdilo resničnost objavljenih informacij o njih. Seveda bo naloga tehničnih strokovnjakov v tem primeru varovanje baz podatkov o dogodkih in mehanizem njihovega potrjevanja, je RIAEPA povedala Daria Bazarkina, profesorica Oddelka za mednarodno varnost in zunanjo politiko Rusije RANEPA.

Sodobna raven tehnologij in zmogljivosti AI nam omogoča, da prepoznamo številne bistveno nove grožnje informacijski in psihološki varnosti človeka.

Promocijski video:

Uporaba tehnologij "lažnih ljudi" in "deepfake" za mednarodne provokacije

Ameriško tehnološko podjetje NVIDIA je pred kratkim delilo rezultate generativno-konkurenčne mreže, usposobljene za ustvarjanje lastnih podob ljudi ("lažnih ljudi"). V nekaj sekundah nevronska mreža ustvari slike z visoko ločljivostjo obrazov neobstoječih ljudi, lahko doda kakršne koli kulturne in etnične značilnosti, čustva, razpoloženje in temelji na neskončni zbirki slik resničnih obrazov. V prihodnosti je možno, da bodo to izkušnjo ponovili tudi drugi razvijalci. Hkrati lahko takšne podobe zločinci uporabljajo za vse vrste provokacij, ki jih lahko prepozna le družba s sistemskim politehničnim znanjem.

»Tehnologija Deepfake lahko sintetizira podobo in glas osebe. Že se je začelo uporabljati za ustvarjanje video posnetkov svetovnih voditeljev, med njimi ameriškega predsednika Donalda Trumpa in ruskega predsednika Vladimirja Putina. Videoposnetki iz Deepfake lahko manipulirajo z vedenjem velikih ciljnih skupin in jih je mogoče uporabiti pri informacijskem in psihološkem soočenju (IPP), da bi izzvali finančno paniko ali vojno, je dejal Evgeny Pashentsev, vodilni raziskovalec Inštituta za sodobna mednarodna vprašanja diplomatske akademije ruskega ministrstva za zunanje ministrstvo, profesor na Moskovski državni univerzi.

Sentiment analiza je razred metod analize vsebine v računski jezikoslovju, zasnovan za avtomatizirano odkrivanje čustveno obarvanega besedišča in čustveno ocenjevanje avtorjev v besedilih. Analiza občutka zagotavlja veliko virov, kot so blogi, članki, forumi, ankete itd. To je lahko zelo učinkovito orodje v API-jih, kar na primer potrjuje veliko zanimanje za tovrstna dogajanja, ki jih trenutno vodi vodstvo ameriškega poveljstva za posebne operacije. (Poveljstvo Združenih držav za posebne operacije (SOCOM).

»Predvidevno orožje«: napovedovanje človekovega vedenja na podlagi podatkov družbenih medijev

Leta 2012 je ameriška agencija za napredno obveščevalno raziskovanje (IARPA) uvedla program zgodnjega prepoznavanja dogodkov na podlagi modela s pomočjo nadomestkov (EMBERS). Namen razvoja se imenuje napovedovanje državljanskih nemirov na podlagi uporabe AI z določitvijo datuma, kraja, protestacijske skupine prebivalstva.

Sistem obdeluje podatke iz medijev in družbenih omrežij, pa tudi iz virov višje kakovosti, na primer ekonomski kazalci. Seveda je izredno nevaren tudi padec takšnih programov v roke teroristov. V tem primeru lahko večji teroristični napadi med največjimi socialnimi demonstracijami postanejo verjetno grožnja. Dodatno merilo pri izbiri ciljev terorističnega napada je lahko stopnja socialne in psihološke napetosti na določenih območjih.

Po mnenju avtorjev študije lahko kot protiukrep državne napovedi uporabijo napovedno analitiko za preprečevanje družbene napetosti (pravočasno sprejetje socialnih, ekonomskih in političnih ukrepov za dolgoročno stabilnost).

Poleg tega lahko teroristične skupine povzročijo škodo ugledu z uporabo botov med političnimi kampanjami, pa tudi, da privabijo nove podpornike ali organizirajo umor politikov.

Zajem dronov in robotske infrastrukture

Prometni sistemi s samo-učenjem z nadzorom AI so lahko priročna tarča visokotehnoloških terorističnih napadov. Teroristični nadzor nad sistemom nadzora prometa v velikem mestu lahko privede do številnih žrtev, povzroči paniko in ustvari psihološko klimo, ki bo olajšala druge kriminalne dejavnosti.

Komercialni sistemi se lahko uporabljajo za nameščanje brezpilotnih zrakoplovov ali avtonomnih vozil za dostavo eksploziva in za nastanek nesreč. Niz večjih nesreč lahko povzroči nemir v mednarodnih medijih in povzroči znatno škodo informacijski in psihološki varnosti.

Raziskovalci Ruske predsedniške akademije za nacionalno gospodarstvo in javno upravo ter Diplomatska akademija Ministrstva za zunanje zadeve Ruske federacije so svoje raziskave utemeljili na sistematični analizi vloge AI na področju varnosti, metodi scenarijev, zgodovinskih analogij in analizi primerov. Skupaj s kolegom z univerze Uppsala (Švedska) Gregom Simonsom so avtorji študije postali souredniki prihajajoče knjige "Terorizem in napredne tehnologije v informacijsko-psihološkem spopadu: Nova tveganja, nove priložnosti za boj proti teroristični grožnji" s sodelovanjem raziskovalcev iz 11 držav.

Na pobudo ruskih raziskovalcev se problematika vloge AI v okviru groženj mednarodni informacijski in psihološki varnosti aktivno razpravlja in bo obravnavana na mednarodnih konferencah in avtonomnih mednarodnih raziskovalnih seminarjih. Med njimi je konferenca, ki je potekala pod pokroviteljstvom Komisije Ruske federacije za Unesco in številnih drugih ruskih in mednarodnih struktur v Khanty-Mansiysku od 9. do 12. junija. Guvernerka Khanty-Mansiyskega avtonomnega okrožja Natalija Vladimirovna Komarova je aktivno sodelovala na zasedanju sekcije o problematiki zlonamerne uporabe AI, ki je nastala s podporo evropsko-ruske strokovne mreže za upravljanje komunikacij (ERESKM). V prihodnosti bo to IV Iberoameriški forum v Sankt Peterburgu od 1. do 3. oktobra 2019,Evropska konferenca o vplivu umetne inteligence in robotike 31. oktober - 1. november 2019. Avtorji študij so predstavili znanstvena poročila v Argentini, Urugvaju, Braziliji, Južni Afriki in Italiji.

Po mnenju strokovnjakov iz RANEPA in Diplomatske akademije je na lestvici Rusije izjemno pomembno, da se oblikuje oblikovanje dolgoročnih ciljno usmerjenih programov, saj težava AI in mednarodne informacijske in psihološke varnosti predstavlja problem v bližnji prihodnosti.