Pravo Umetno Inteligenco Je Mogoče Ustvariti Z Reševanjem Treh Glavnih Težav - - Alternativni Pogled

Kazalo:

Pravo Umetno Inteligenco Je Mogoče Ustvariti Z Reševanjem Treh Glavnih Težav - - Alternativni Pogled
Pravo Umetno Inteligenco Je Mogoče Ustvariti Z Reševanjem Treh Glavnih Težav - - Alternativni Pogled

Video: Pravo Umetno Inteligenco Je Mogoče Ustvariti Z Reševanjem Treh Glavnih Težav - - Alternativni Pogled

Video: Pravo Umetno Inteligenco Je Mogoče Ustvariti Z Reševanjem Treh Glavnih Težav - - Alternativni Pogled
Video: Кризис сберегательно-ссудной банковской системы: Джордж Буш, ЦРУ и организованная преступность 2024, Maj
Anonim

Na konferenci o globokem strojnem učenju v Londonu prejšnji mesec je bila večkrat postavljena ena tema: pomembnost razumevanja tega, kar v resnici počnemo. Medtem ko podjetja, kot je Google, še naprej trdijo, da vsi živimo v "prvem stoletju AI", ko strojno učenje šele začenja odkrivati nova področja dejavnosti (na primer prepoznavanje govora in slike), tisti, ki resnično stojijo v ospredju raziskav AI želimo poudariti, da je treba še veliko izzivov, s katerimi se je treba spoprijeti, preden pride do prave starosti AI. Tudi če že imamo digitalne pomočnike, ki lahko kot znanstveniki v filmih govorijo kot računalniki, to še ne pomeni, da smo resno blizu ustvarjanju prave umetne inteligence.

Na koncu so vsi problemi, ki stojijo na poti ustvarjanja resničnega AI, naslednji: v količini informacij, ki jih bo treba v njih vložiti; v naši nezmožnosti, da bi ustvarili AI, ki bi se lahko enako dobro spopadel z več nalogami hkrati; no, v resnici nimamo pojma, kako naj bi takšni sistemi dejansko delovali. Tehnologije strojnega učenja so že v letu 2016 sposobne narediti čudovite stvari, vendar je te stvari včasih težko razložiti, tudi za same ustvarjalce. Da ne omenjam, koliko denarja vse to stane. Oglejmo si podrobneje kompleksnosti, s katerimi se danes srečujejo inženirji AI.

Informacije najprej, nato AI

Vsi popolnoma razumemo, da mora AI imeti dostop do informacij, da lahko preučuje svet okoli nas, vendar ne razumemo natančno, koliko informacij je potrebnih. Po besedah Neila Lawrencea, profesorja strojnega učenja na univerzi v Sheffieldu in člana ekipe za razvoj tehnologije AI na Amazonu, bodo ti sistemi potrebovali sto in tisočkrat več informacij kot človek, da bi se naučili razumeti svet in prepoznati določene predmete.

"Če pogledate vse panoge in področja, kjer so inženirji dosegli nekaj uspeha pri strojnem globokem učenju, boste takoj videli, koliko informacij je bilo uporabljenih za reševanje vseh teh vprašanj," pravi Lawrence in navaja primer iste tehnologije za prepoznavanje govora in slike.

Podjetja, kot sta Google in Facebook, imajo dostop do gora informacij, kar seveda olajša ustvarjanje različnih uporabnih orodij (na primer iste tehnologije za glasovno iskanje za Android).

Za Lawrencea je zdaj podatek, kakšen je bil premog v zgodnjih letih industrijske revolucije. Kot primer Lawrence navaja Thomasa Newcomna, Angleža, ki je leta 1712 (dejansko 60 let, preden je James Watt ustvaril tak stroj) ustvaril primitivno različico parnega stroja, ki ga poganja premog. Newcomenov izum ni bil popoln. V primerjavi z Watt-ovim strojem se je izkazal za neučinkovit in predrag za uporabo. Večinoma ga je bilo mogoče uporabiti le v premogovnikih, kjer je bila potrebna količina goriva za pomanjkljivosti stroja.

Primer Facebookove tehnologije za prepoznavanje odprte slike

Promocijski video:

Image
Image

Lawrence verjame, da bi lahko na stotine teh novincev po vsem svetu razvilo svoje lastne modele strojnega učenja. Morda so med njimi resnično revolucionarne ideje, toda brez njihovih tehnologij, ki bi dostopale do ogromnih baz podatkov o njih, najverjetneje nihče ne bo izvedel. Velika podjetja, kot so Google, Facebook in Microsoft - so zelo moderni "rudarji premoga". Imajo dostop do neomejene količine informacij, zato lahko ustvarijo neučinkovite sisteme strojnega učenja in jih nato izboljšajo. Majhni startupi imajo resnično odlične ideje, vendar brez dostopa do baz informacij nikoli ne bodo dosegli ničesar vrednega.

Ta problem postane še bolj jasen, ko pogledate področja, kjer je pridobivanje potrebnih informacij še težje. Vzemimo za primer zdravstveni sistem, kjer bi lahko AI uporabljali za izvajanje nalog, povezanih s strojnim vidom, na primer in prepoznali maligne tumorje na rentgenskih žarkih. Toda dostop do takih podatkov je običajno zelo omejen. Glavni omejujoči dejavnik, po Lawrenceu, je trenutno dojemanje ljudi, da je neetično, da tujci dostopajo do tovrstnih informacij. Glavna težava po Laurenčevem mnenju ni v iskanju načinov za razširjanje informacij, ampak v tem, kako narediti sisteme strojnega učenja učinkovitejši in jih naučiti delati z manj informacijami. Po mnenju znanstvenika bi te izboljšave učinkovitosti lahko trajale enakih 60 let.kot je bilo to pri Watt-ovem avtomobilu.

Specializacija je slepa ulica. AI mora biti sposoben večopravilnosti

Drugi ključni izziv, s katerim se soočajo resnično globoki modeli strojnega učenja, je dejstvo, da so vsi naši trenutni AI sistemi pravzaprav zelo neumni. Po besedah Rya Hudsell, raziskovalke pri Googlovem DeepMindu, je te sisteme dejansko mogoče naučiti izvajati naloge za prepoznavanje mačk, se igrati z njimi in hkrati biti zelo učinkoviti pri opravljanju teh nalog. Toda "v tem trenutku na svetu ne obstaja niti ena polna nevronska mreža in metode, ki bi jo usposobile za prepoznavanje slik, igranje Space Invaders in razmišljanje o glasbi." Po drugi strani so nevronske mreže tista ključna osnova za ustvarjanje sistemov globokega učenja za stroje.

In ta težava je veliko bolj pomembna, kot se morda zdi na prvi pogled. Ko je DeepMind februarja lani objavil, da je zgradil sistem, ki bi lahko igral 49 iger Atari, je bilo to resnično mogoče razumeti kot velik dosežek. Toda na koncu se je izkazalo, da je treba po tem, ko sistem dokonča prehod ene igre, vsakič preusposobiti za igranje druge. Hudsell ugotavlja, da sistema ne moremo naučiti igrati vseh iger hkrati, saj se bodo pravila med seboj pomešala in na koncu motila nalogo. Vsakič morate stroj ponovno naučiti in vsakič sistem »pozabi«, kako igrati prejšnjo igro.

»Za ustvarjanje splošne umetne inteligence potrebujemo nekaj, kar nam bo pomagalo, da bomo stroj naučili več nalog hkrati. Zdaj jih sploh ne moremo usposobiti za igranje iger, pravi Hadsell.

Rešitev se lahko skriva v tako imenovanih progresivnih nevronskih mrežah - združevanje neodvisnih sistemov globokega učenja v eno samo celoto za učinkovitejše delo z informacijami. V objavljenem znanstvenem prispevku, ki obravnava to problematiko, sta Hadsell in njena skupina raziskovalcev govorili o tem, kako se je njihova progresivna nevronska mreža lahko prilagodila v igri Pong, v kateri so bili pogoji vsakič nekoliko drugačni (v enem primeru so se barve spremenile, v drugem pa so bile zmedene nadzor), veliko hitreje kot "navadna" nevronska mreža, ki jo je bilo treba vsakič znova trenirati.

Osnovno načelo progresivne nevronske mreže

Image
Image

Metoda se je izkazala za zelo obetavno in jo v zadnjem času uporabljajo za nastavitev robotskih orožij, s čimer so pospešili učni proces iz tedna v en dan. Na žalost ima ta metoda tudi svoje omejitve. Hudsell ugotavlja, da v primeru progresivnih nevronskih mrež procesa učenja ni mogoče omejiti na preprosto dodajanje novih nalog v njihov spomin. Če boste takšne sisteme še naprej kombinirali, prej ali slej pridete do "preveč zapletenega modela, ki ga ni mogoče izslediti." V tem primeru bomo govorili o drugačni ravni. Raven, na kateri se bodo različne naloge na splošno izvajale na enak način. Izdelava AI, ki je sposoben oblikovati stole in ustvarjati AI ravni človeške inteligence, ki je sposobna pisati pesmi in reševati diferencialne enačbe, ni isto.

AI lahko imenujemo AI, če lahko pokažemo, kako deluje

Druga zastrašujoča ovira je razumevanje, kako bo umetna inteligenca prišla do svojih zaključkov pri reševanju težav. Nevronske mreže so običajno nepregledne za opazovalca. Kljub temu, da vemo, kako se zbirajo in kako informacije tečejo skozi njih, odločitve, ki jih sprejmejo, običajno ostanejo brez obrazložitve.

Odličen primer te težave je eksperiment Virginia Tech. Raziskovalci so ustvarili sistem sledenja za nevronsko omrežje, ki beleži, s katerimi pikami v digitalni sliki računalnik začne svojo analizo. Raziskovalci so pokazali slike nevronske mreže spalnice in ji postavili vprašanje: "Kaj visi na oknih?" Stroj je, namesto da bi gledal direktno v okna, začel analizirati slike, začenši s tal. V njeno vidno polje je prišla postelja in avto ji je odgovoril: "Na oknih so zavese." Odgovor se je izkazal za pravilnega, vendar le zato, ker je bil sistem "naučen" delati z omejeno količino podatkov. Na podlagi prikazane slike je nevronska mreža zaključila, da če fotografija prikazuje spalnico, potem najverjetneje na oknih naj bodo zavese. Ko je podrobnost prišla v njeno vidno polje,ki jo običajno najdemo v kateri koli spalnici (v tem primeru postelji), slike ni analizirala naprej. Morda sploh ni videla te postelje, videla je zavese. Logično, a zelo površno in privlačno. Poleg tega številne spalnice nimajo zaves!

Tehnologija sledenja je le eno orodje, ki nam lahko pomaga razumeti, kaj stroj poziva k določeni odločitvi, vendar obstajajo boljše metode, ki sistemom strojnega učenja lahko dodajo več logike in poglobljene analize. Murray Shanahan, profesor kognitivne robotike na Imperial College London, verjame, da je najboljša rešitev problema revizija staromodne paradigme AI - simboličnega AI ali GOFAI (Good Old-Fashioned Artificial Intelligence, "dobra stara umetna inteligenca"). Njegova paradigma sega do dejstva, da je absolutno katero koli nalogo mogoče razčleniti na osnovne logične elemente, kjer je vsaka beseda le zapleten niz preprostih simbolov. S kombiniranjem teh simbolov - v dejanjih, dogodkih, predmetih in podobno - je mogoče sintetizirati razmišljanje. Pomislite samo, da so se takšni dogodki začeli že v dneh, ko so bili računalniki velikanske škatle velikosti sobe, ki so delale na magnetnem traku (delo se je začelo sredi 50. let in se nadaljevalo do konca 80. let prejšnjega stoletja).

Predlog Shanahana je združiti simbolične opise GOFAI in tehnologij globokega učenja. To bo takim sistemom omogočilo ne le napajanje novih informacij in čakanje, da na podlagi teh informacij sklepajo na določene vzorce vedenja in reševanja problemov, Shanahanov pristop naj bi takšnim sistemom omogočil izhodišča za razumevanje sveta. To po njegovem mnenju ne bo rešilo le problema preglednosti AI, ampak tudi problem prenosljivega učenja, ki ga je opisal Hadsell.

"Varno lahko rečemo, da je Breakout zelo podoben pongu, saj se v obeh primerih uporabljajo" platforme "in" kroglice ", vendar sta z vidika človekove percepcije in logike dve popolnoma različni igri. In med njimi je skoraj nemogoče potegniti vzporednice. Kot bi poskušali združiti strukturo atoma in strukturo celotnega osončja."

Shanahan in njegovi sodelavci na Imperial College London trenutno delajo na novi metodi strojnega učenja (ki ji pravijo globoko simbolično stimulirano učenje) in so že objavili rezultate nekaterih majhnih poskusov. Metoda je še vedno v povojih, zato je težko še reči, ali se bo razširil na večje sisteme, ki delujejo z različnimi vrstami podatkov. Kljub temu še vedno obstajajo možnosti, da bo ta metoda prerasla v nekaj več. Konec koncev je bilo globoko učenje vedno najbolj dolgočasen in dolgočasen del razvoja AI, dokler raziskovalci niso našli načina za hiter dostop do podatkov in pridobili ogromno procesno moč. Čisto mogoče,čas je, da se vrnemo na stare paradigme AI in jih preizkusimo v novem okolju.

NIKOLAY HIZHNYAK