Umetna Inteligenca: Nevaren Sovražnik Ali Prijazen Pomagač - Alternativni Pogled

Umetna Inteligenca: Nevaren Sovražnik Ali Prijazen Pomagač - Alternativni Pogled
Umetna Inteligenca: Nevaren Sovražnik Ali Prijazen Pomagač - Alternativni Pogled

Video: Umetna Inteligenca: Nevaren Sovražnik Ali Prijazen Pomagač - Alternativni Pogled

Video: Umetna Inteligenca: Nevaren Sovražnik Ali Prijazen Pomagač - Alternativni Pogled
Video: След обратите: Загубата за ГЕРБ е много тежка, крахът за БСП е впечатляващ 2024, Maj
Anonim

Uporaba umetne inteligence (AI) v vsakdanjem življenju hitro pridobiva na veljavi, vendar ta trend pri strokovnjakih vse bolj vzbuja skrb. Osebje NYU je pripravilo opozorilno noto o tveganjih uporabe I. I. Avtorji so se večinoma osredotočili na etična in družbena vprašanja ter na pomanjkanje predpisov. Poročilo skupine AI Now pravi malo novega, v svetovni praksi pa se vse bolj postavlja vprašanje potrebe po omejevanju dela umetnega razmišljanja.

Skoraj vsi vizionarji tehnološkega napredka so govorili o potencialnih grožnjah AI. Stephen Hawking je novembra lani izrazil glavne strahove, ki so spremljali razmislek o razvoju tehnologije. Po njegovem mnenju se bodo računalniki prej ali slej naučili reproducirati. Biološka bitja verjetno izgubijo silicijevo inteligenco tako v duševnih sposobnostih kot v smislu prilagodljivosti okolju, zlasti na drugem planetu. Prej ali slej bodo pametni roboti človeka smatrali za zastarelo obliko in se jih želijo znebiti.

Hawkingove besede še vedno zvenijo kot grozljiva zgodba, predvajane več desetkrat v filmih in knjigah, a tudi tisti, ki delajo na implementaciji pametnih sistemov, se z AI vse bolj bojijo prihodnosti, čeprav obstajajo tisti, ki menijo, da so takšni strahovi prezgodnji. "Bojiti se razvoja AI danes je kot zaskrbljujoče zaradi prenaseljenosti Marsa," je povedal Andrew Ng, vodja Google Brain. Vendar ni prepričal vseh.

Image
Image

Med največjimi fobijami, povezanimi z uvedbo računalnika v vse življenjske sfere, je treba omeniti tri. Prvič, računalniški um bo uporabljen kot orožje za vojsko, ki bo po destruktivni moči znatno preseglo celo jedrsko orožje. Drugo je, da bo AI zasužnjila ljudi. Tretjič, tako kot vsako človeško ustvarjanje je tudi računalnik nagnjen k napakam. Vse tri točke lahko podrobneje razpravljamo.

21. avgusta 2017 so vodilni strokovnjaki na področju raziskav in izvajanja umetne inteligence, vključno z vodji podjetij, kot sta SpaceX in Deep Mind, poslali odprto pismo OZN. V besedilu so svetovno skupnost opozorili pred razvijanjem smrtonosnega avtonomnega orožja, naj bo to roboti ali drugi mehanizmi, namenjeni ubijanju sovražnika. Avtorji dokumenta so opozorili na usodne posledice uporabe takega orožja. S svojo fenomenalno učinkovitostjo se je pošteno vprašati, v katere roke bo padel. Uporabljajo jo lahko tako ozek krog elit kot teroristi.

Avtorji pisma so nadzorno organizacijo in z njo znanstveno skupnost pozvali, naj opišejo obseg škodljive uporabe AI. Odgovornost, s katero se človek sooča za svoje ustvarjanje, ga zavezuje k resnemu delu za preprečevanje tveganj. Poleg zakonov morajo njihovi ustvarjalci omejiti tudi moč robotov, ki se bodo morali uganiti nad tem, kako v skrajnih primerih izklopiti stroje.

Image
Image

Promocijski video:

Politična zloraba elektronskih sistemov je bila že dokazana z delom družbenih omrežij in algoritmov za analizo podatkov. Spomladi letošnjega leta je po svetu zabruhnil škandal s podjetjem Cambridge Analytica. Njeni strokovnjaki so opravili poglobljeno analizo uporabniških podatkov in na Facebooku postavili oglase, prilagojene posamezno.

Zaposleni v podjetju niso le presegli etičnega okvira, temveč so uporabili tudi sodobne tehnologije, katerih dela ni bilo mogoče analizirati. Učinkovitost strojnega učenja je ponavljajoča se tema vodilnih matematikov. Enostavno priznavajo, da so presenečeni nad izjemnim uspehom računalniških programov, vendar popolnoma ne morejo razumeti dela zapletenega sistema. Aprila letos so v Mjanmaru objave na Facebooku povzročile nemir med množicami, toda za razliko od ZDA, kjer so potekali protesti, je v azijski državi prišlo do pokola, v katerem je bilo ubitih več sto ljudi. Manipulacije ogromnega števila ljudi so resničnost in roboti se lahko tu igrajo z nami kruto šalo.

Image
Image

Velja spomniti istega Facebooka, kjer so lansirali klepete na osnovi AI. Navidezni pomočniki so bili usposobljeni za vodenje dialoga s sogovornikom. Sčasoma so se boti razlikovali od resničnih ljudi, nato pa so se avtorji odločili, da bodo robote združili. Sčasoma so boti začeli krajšati leksikalne strukture in izmenjevati gmajeve. Mediji so napihnili občutek iz novice, pravijo, da so se "stroji uprli". Toda če prepustimo pretiravanje novinarjev, je pošteno priznati, da človek v primeru, ko stroji začnejo medsebojno komunicirati, tega ne opazi. In kako bodo tam živeli svoje življenje - nihče ne ve.

Vse bolj zapletena struktura računalniškega uma nas vsak dan oddaljuje od razumevanja načel njegovega dela. Toda čeprav večina algoritmov opravlja svoje delo, so tudi danes kompleksni stroji daleč od idealnih in delajo napake. Za nadaljnji razvoj AI je pomembno razumeti ne toliko njegovih prednosti, kot njihove ranljivosti. Prav na tem je osredotočeno veliko število znanstvenih skupin, v eni od njih je specialist z MIT Anish atali. Pred nekaj dnevi je novinarjem povedal o najpogostejših napakah v sistemih za prepoznavanje slike.

Njegovi kolegi so demonstrirali predmete na stroju in ugotovili, da so elektronski vidi pogosto posamezne predmete zaznali napačno. Računalnik bi lahko baseball poklical skodelico kave, 3D-natisnjeno želvo pa vojsko. Skupina je že zbrala približno 200 elementov, ki so zavajajoči algoritmi.

Image
Image

Umetna inteligenca se je namesto zaznavanja predmeta kot celote osredotočila na njegove posamezne parametre. AI se ponavadi uči iz "popolnega" vzorca. Ko se sooči s pojavi, ki niso v skladu z normami, ne more vedno opustiti običajnega postopka obdelave. Namesto da bi priznal svoje nezmožnosti predelave slike, še naprej poskuša prebrati sliko in to vodi do včasih smešnih rezultatov. Namesto oblike želve so elektronski možgani poskušali prebrati njegovo teksturo, podobno maskirni. Iz približno istega razloga avtopiloti za elektronske avtomobile še niso stoodstotno zanesljivi. Avto težko vidi silhueto in domneva, da je sestavljen iz ločenih elementov.

In če se bodo v prihodnjih letih odpravile nekatere pomanjkljivosti, ni nobenega zagotovila, da hekerji ne bodo izkoristili ranljivosti. Hekerji elektronskih naprav danes predstavljajo skoraj glavni vzrok strahu. Majhna skupina programerjev ne more dobiti le dostopa do osebnih podatkov, ampak tudi znova konfigurira avtonomne sisteme in prevzame nadzor nad kolosalnimi orodji. In potem bomo vsi v težavah. Toda glavni sklep, ki ga lahko potegnemo, je morda tradicionalni - ne bi se morali bati avtomobilov, ampak ljudi.

Aleksander Lavrenov