Lov Na Negativnost. Umetni Inteligenci Bomo Zaupali Nadzor Družbenih Omrežij - Alternativni Pogled

Lov Na Negativnost. Umetni Inteligenci Bomo Zaupali Nadzor Družbenih Omrežij - Alternativni Pogled
Lov Na Negativnost. Umetni Inteligenci Bomo Zaupali Nadzor Družbenih Omrežij - Alternativni Pogled
Anonim

Če ne živite na socialnih medijih, potem najverjetneje sploh ne živite. Polovica svetovnega prebivalstva vam lahko postavi tako razočarano diagnozo. Vsekakor so po statističnih podatkih danes registrirani na družbenih omrežjih. V Rusiji je število mrežnih delavcev približno 30 milijonov.

Zveze so že napisali psihologi o odvisnosti od omrežja, ki jo primerjajo z drogo. In avtor izraza "virtualna resničnost", eden od njenih ustvarjalcev, predstavnik kibernetske elite Silicijeve doline, Jaron Lanier, je celo napisal knjigo o tem, zakaj morate pobegniti iz družbenega omrežja. Čeprav je postal uspešnica, ti razpisi verjetno ne bodo prepričali široke množice uporabnikov. Danes populacija družbenih omrežij hitro narašča. Po mnenju strokovnjakov bodo do sredine stoletja zapletli skoraj celotno prebivalstvo planeta. Razen, če si človeštvo seveda ne premisli.

In nekaj je treba razmišljati. Danes v omrežjih obstajajo klubi za interese ne le filatelistov in gledališč, temveč samomorilcev in odvisnikov od drog, tukaj najdete navodila za novomeške teroriste, spremljevalce v boju proti trenutni vladi in še veliko več, odkrito povedano, negativnih. Lahko si na primer omislite samomorilni val, ko je prišlo do razcveta v eni priljubljeni spletni igri, katere končni cilj je samomor. Uporabnike družbenih omrežij (pretežno najstniki) vzpostavi stik s "kustosom", ki uporablja ponarejene račune, zato jih ni mogoče prepoznati. Najprej razložijo pravila: "nikomur ne povej o tej igri", "vedno dokončaj naloge, kakršne koli že bodo", "če ne opraviš naloge, si za vedno izključen iz igre in soočil se boš s slabimi posledicami."

In politiki že govorijo o pojavu omrežij: rušijo vlade in celo volijo predsednike. Tehnike so presenetljivo preproste. V mreže se vržejo lažne izjave o nekaterih nezaslišanih dejanjih oblasti in pozivajo, naj na ulice izrazijo ogorčenje. Znanih je veliko primerov, na primer v Egiptu, Južnem Sudanu, Mjanmaru.

Kako zaščititi družbo pred uničevalnim vplivom družbenih omrežij? To še posebej velja za mlajšo generacijo, ki je velika večina v omrežjih.

Za strokovnjake, zlasti psihologe, to načeloma ni problem. Vendar je obseg najrazličnejših informacij, tudi negativnih, v omrežjih ogromen, tudi najboljši strokovnjaki se ne morejo spoprijeti z njegovo "ročno" obdelavo. To lahko stori samo tehnologija. In predvsem umetna inteligenca (AI), zgrajena na podlagi nevronskih mrež, ki posnemajo strukturo in delovanje možganov. Skupina psihologov s prve St. Petersburg državne medicinske univerze po imenu I. I. Pavlov in strokovnjaki s področja informacijske tehnologije Sankt Peterburškega inštituta za informatiko in avtomatizacijo Ruske akademije znanosti.

"Govorimo o prepoznavanju s pomočjo AI različnih skupin ljudi, nagnjenih k destruktivnemu vedenju," je za dopisnika RG povedal profesor Igor Kotenko, ki vodi to skupino znanstvenikov. - Psihologi so nam ponudili sedem možnosti za takšno vedenje, predvsem gre za negativen odnos do življenja, kar lahko privede do samomora, to je nagnjenost k agresiji ali protesti, to so grožnje določeni osebi ali skupini oseb itd. Naša naloga je ustvariti AI, ki lahko deluje s temi znaki, figurativno rečeno, jih "kladi" v AI, tako da lahko nenehno analizira ogromne informacije, ki se sprehajajo po omrežju, in lovi različne moteče možnosti.

Naloga na prvi pogled ni zelo težka. Navsezadnje je vsak prebivalec družbenega omrežja, kot pravijo, na vidiku. Na njegovi strani si lahko ogledate, kaj ga zanima, kaj misli, s kom komunicira, katera dejanja sam izvaja in na kaj kliče druge. Vse na prvi pogled. Pazi in ukrepaj. A če bi bilo vse tako očitno … Dejstvo je, da misli in vedenje osebe v večini primerov še zdaleč niso tako preproste in nedvoumne, kot se morda zdi. Na splošno je hudič v podrobnostih. In kjer je za strokovnjaka vse očitno, se lahko AI zmoti. Na primer, kanadski znanstveniki so AI naučili razlikovati med nesramnimi šalami ali "sovražnim govorom" od samo žaljivih. Sistem se je izkazal za precej nepopolnega, na primer je izpustil številne očitno rasistične izjave.

Promocijski video:

Skratka, vse je odvisno od tega, kako se poučuje AI. In sistem se uči po zgledih tako, kot se uči otrok. Navsezadnje mu ne razložijo, da ima mačka take brke, takšna ušesa, tak rep. Večkrat mu pokažejo žival in rečejo, da je mačka. In potem sam večkrat to lekcijo ponovi in pogleda drugega mačka.

Nevronske mreže, ki so jih ustvarili znanstveniki iz Sankt Peterburga, bodo preučevali na enak način. Predstavili se jim bodo različne možnosti za destruktivno vedenje ljudi. Obdržal bo v svojih možganih znake, ki so jih razvili psihologi, AI si jih bo zapomnil, da bi jih nato ujel v ogromne tokove informacij na družbenih omrežjih. Profesor Kotenko poudarja, da je naloga AI narediti le nasvet za destruktivne, zadnja beseda pa za strokovnjake. Le tako bodo lahko povedali, ali je situacija res zaskrbljujoča in je treba nujno ukrepati ali je alarm napačen.

Projekt je podprla Ruska fundacija za temeljne raziskave.

Jurij Medvedev