Razmišljanje Kot Oseba: Kaj Se Bo Zgodilo, če Boste Stroj Podarili S Teorijo Zavesti - Alternativni Pogled

Kazalo:

Razmišljanje Kot Oseba: Kaj Se Bo Zgodilo, če Boste Stroj Podarili S Teorijo Zavesti - Alternativni Pogled
Razmišljanje Kot Oseba: Kaj Se Bo Zgodilo, če Boste Stroj Podarili S Teorijo Zavesti - Alternativni Pogled

Video: Razmišljanje Kot Oseba: Kaj Se Bo Zgodilo, če Boste Stroj Podarili S Teorijo Zavesti - Alternativni Pogled

Video: Razmišljanje Kot Oseba: Kaj Se Bo Zgodilo, če Boste Stroj Podarili S Teorijo Zavesti - Alternativni Pogled
Video: Hoce li krenut na bolje uopsteno i u ljubavi? Dal ce SRECA da se odštopa i krene? Magijske blokade? 2024, Maj
Anonim

Prejšnji mesec je ekipa samoučnih igralcev AI doživela spektakularen poraz proti profesionalnim igralcem esportov. Razstavni dvoboj, ki je potekal v okviru mednarodnega svetovnega prvenstva Dota 2, je pokazal, da moštvo strateškega razmišljanja še vedno omogoča, da človek prevzame prednost nad avtomobilom.

Vključeni AI so bili več algoritmov, ki jih je razvil OpenAI, od katerih je Elon Musk eden izmed ustanoviteljev. Kolektiv digitalnih predvajalnikov, imenovanih OpenAI Five, se je s preizkusom in napakami naučil sam igrati Dota 2 in se med seboj tekmoval.

Za razliko od enake šahovske ali namizne logične igre Go, priljubljena in hitro rastoča igra za več igralcev Dota 2 velja za veliko bolj resno področje za testiranje umetne inteligence na moč. Splošna težava igre je le en dejavnik. Ni dovolj, da z miško zelo hitro kliknete in ukažete znaku, ki ga nadzirate. Za zmago je potrebno imeti intuicijo in razumevanje, kaj lahko od nasprotnika pričakujemo v naslednjem trenutku, pa tudi ustrezno ukrepati v skladu s tem naborom znanja, da bomo skupaj s skupnimi napori prišli do skupnega cilja - zmage. Računalnik nima tega nabora zmogljivosti.

Do danes niti najbolj izstopajoči računalniški algoritem nima strateškega razmišljanja, potrebnega za razumevanje ciljev iz nalog nasprotnika, pa naj gre za drugega AI ali človeka.

Po mnenju Wang-a mora AI imeti globoko komunikacijsko sposobnost, ki izvira iz najpomembnejše kognitivne lastnosti človeka - prisotnosti inteligence.

Model mentalnega stanja kot simulacija

Promocijski video:

Do četrtega leta starosti otroci običajno začnejo razumeti eno temeljno družbeno lastnost: njihovi umovi so drugačni od misli drugih. Začnejo razumeti, da ima vsakdo, v kar verjame, svoje želje, čustva in namere. In kar je najpomembneje, da se predstavljajo namesto drugih, lahko začnejo napovedovati nadaljnje vedenje teh ljudi in jih razlagajo. Na nek način njihovi možgani začnejo ustvarjati več simulacij sebe v sebi, nadomeščajo se namesto drugih ljudi in se umeščajo v drugo okolje.

Model duševnega stanja je pomemben pri razumevanju sebe kot osebe in ima pomembno vlogo tudi v družbeni interakciji. Razumevanje drugih je ključ do učinkovite komunikacije in doseganja skupnih ciljev. Vendar je ta sposobnost lahko tudi gonilna sila lažnih prepričanj - idej, ki nas odpeljejo od objektivne resnice. Takoj, ko je sposobnost uporabe modela duševnega stanja oslabljena, na primer, to se zgodi pri avtizmu, potem se poslabšajo tudi naravne "človeške" veščine, kot je sposobnost razlage in predstavljanja.

Po besedah dr. Alana Winfielda, profesorja robotike na univerzi Zahodne Anglije, je model duševnega stanja ali "teorija uma" ključna lastnost, ki bo AI nekega dne omogočila "razumevanje" ljudi, stvari in drugih robotov.

Namesto strojnih metod učenja, pri katerih več plasti nevronskih mrež črpa posamezne podatke in "preučuje" ogromne baze podatkov, Winston predlaga drugačen pristop. Namesto da bi se zanašal na učenje, Winston predlaga vnaprej programiranje AI z notranjim modelom samega sebe in okolja, ki bo odgovoril na preprosta vprašanja "kaj če?"

Predstavljajte si na primer, da se dva robota premikata po ozkem hodniku, njihov AI lahko simulira rezultate nadaljnjih dejanj, ki bodo preprečila njihovo trčenje: zavijte levo, desno ali nadaljujte naravnost. Ta notranji model bo v bistvu deloval kot "mehanizem posledic", ki deluje kot nekakšen "zdrav razum", ki bo AI pomagal usmeriti k naslednjim pravilnim ukrepom s predvidevanjem prihodnjega razvoja razmer.

V raziskavi, objavljeni v začetku tega leta, je Winston demonstriral prototipa robota, ki je sposoben doseči takšne rezultate. V pričakovanju vedenja drugih se je robot brez trkov uspešno podal skozi hodnik. To v resnici ne preseneča, ugotavlja avtor, toda "pozoren" robot je s pomočjo simuliranega pristopa k reševanju problema potreboval 50 odstotkov dlje, da je koridor dokončal. Kljub temu je Winston dokazal, da njegova metoda notranje simulacije deluje: "To je zelo močno in zanimivo izhodišče za razvoj teorije umetne inteligence," je zaključil znanstvenik.

Winston upa, da bo sčasoma AI pridobil sposobnost opisovanja in miselnega reproduciranja situacij. Notranji model sebe in drugih bo takšnemu AI omogočil, da simulira različne scenarije in, kar je še pomembneje, za vsakega od njih določi posebne cilje.

To se bistveno razlikuje od algoritmov globokega učenja, ki načeloma ne znajo razložiti, zakaj so pri reševanju problema prišli do tega ali onega zaključka. Model globokega učenja s črno škatlo je pravzaprav resnična težava pri zaupanju takšnih sistemov. Ta težava lahko postane še posebej pestra, na primer pri razvijanju negovalnih robotov za bolnišnice ali za starejše.

AI, oborožen z modelom duševnega stanja, bi se lahko postavil v čevlje svojih gospodarjev in pravilno razumel, kaj se od njega želi. Potem je lahko opredelil ustrezne rešitve in ko bo osebi razložil te odločitve, bo že izpolnjeval nalogo, ki mu je bila dodeljena. Manj negotovosti pri odločitvah, več zaupanja bi bilo v take robote.

Model duševnega stanja v nevronski mreži

DeepMind je drugačen. Namesto da bi predhodno programirali algoritem mehanizma posledic, so razvili več nevronskih mrež, ki kažejo podobnost modelu kolektivnega psihološkega vedenja.

Algoritem AI "ToMnet" se lahko nauči dejanj z opazovanjem drugih nevtronskih mrež. Sam ToMNet je skup treh nevronskih mrež: prva temelji na posebnostih izbire drugih AI v skladu z njihovimi zadnjimi dejanji. Drugi tvori splošni koncept trenutnega razpoloženja - njihova prepričanja in namere v določenem času. Skupni rezultat dela dveh nevronskih mrež prejme tretja, kar glede na situacijo napoveduje nadaljnja dejanja AI. Tako kot pri globokem učenju postane tudi ToMnet učinkovitejši, saj pridobiva izkušnje s sledenjem drugim.

V enem poskusu je ToMnet "opazoval", kako trije agenti AI manevrirajo v digitalni sobi in zbirajo pisane škatle. Vsaka od teh AI je imela svojo posebnost: ena je bila "slepa" - ni mogla določiti oblike in umestitve v sobi. Drugi je bil "sklerotik": svojih zadnjih korakov se ni mogel spomniti. Tretji so lahko videli in zapomnili.

Po treningu je ToMnet začel z napovedovanjem njegovih ukrepov napovedovati želje vsakega AI. Na primer, "slepi" se je nenehno premikal le vzdolž sten. ToMnet se je tega spomnil. Algoritem je bil sposoben tudi pravilno predvideti prihodnje vedenje AI in, kar je še pomembneje, razumeti, kdaj je AI naletela na napačno predstavitev okolja.

V enem testu je skupina znanstvenikov programirala eno AI za "miopijo" in spremenila postavitev sobe. Sredstva z normalnim vidom so se hitro prilagodila novi postavitvi, a miopec je še naprej sledil svojim izvirnim potim, lažno verjel, da je še vedno v starem okolju. ToMnet je hitro opazil to funkcijo in natančno napovedal vedenje agenta in se postavil na svoje mesto.

Po besedah dr. Alison Gopnik, razvojne psihologinje z kalifornijske univerze Berkeley, ki ni bila vključena v te študije, vendar je bila seznanjena z izsledki, ti rezultati kažejo, da imajo nevronske mreže neverjetno sposobnost, da se sami naučijo različnih veščin z opazovanjem drugih. Hkrati je po mnenju strokovnjaka še vedno zelo zgodaj reči, da so ti AI razvili umetni model duševnega stanja.

Po besedah doktorja Josha Tenebauma z Massachusetts Institute of Technology, ki prav tako ni bil vključen v študijo, je ToMnet-ovo "razumevanje" močno povezano z kontekstom učnega okolja - isto sobo in specifičnimi agenti AI, katerih naloga je bila zbiranje škatel. Zaradi te omejitve v določenem okviru je ToMnet manj učinkovit pri napovedovanju vedenja v radikalno novih okoljih, v nasprotju z istimi otroki, ki se znajo prilagoditi novim situacijam. Algoritem se po mnenju znanstvenika ne bo spopadal z modeliranjem dejanj popolnoma drugačnega AI ali osebe.

Vsekakor delo Winstona in DeepMind dokazuje, da računalniki začenjajo pokazati rudimente »razumevanja« drug drugega, čeprav je to razumevanje še vedno le rudimentarno. In ko bodo še naprej izpopolnjevali to veščino in se med seboj bolje in bolje razumeli, bo prišel čas, ko bodo stroji lahko razumeli kompleksnost in zapletenost lastne zavesti.

Nikolaj Hizhnyak