Kako Ustvariti Robota, Ki želi Spremeniti Svet? - Alternativni Pogled

Kazalo:

Kako Ustvariti Robota, Ki želi Spremeniti Svet? - Alternativni Pogled
Kako Ustvariti Robota, Ki želi Spremeniti Svet? - Alternativni Pogled

Video: Kako Ustvariti Robota, Ki želi Spremeniti Svet? - Alternativni Pogled

Video: Kako Ustvariti Robota, Ki želi Spremeniti Svet? - Alternativni Pogled
Video: ОБЗОР на САМОГО БЫСТРОГО РОБОТА ! 2024, September
Anonim

Računalnik Christoph Solge poskuša odpraviti potrebo po pravilih, ki urejajo vedenje robotov. Njegova strategija je, da jim postavi cilj: da nas naredi močnejše. Christophe dela v laboratoriju Game Innovation Lab na Univerzi v New Yorku. Sasha Maslov je intervjuval Prodano za revijo Quanta, od koder izvemo, da se nam morda ne splača zadrževati neustavljivega toka tehnološke singularnosti.

Slavni Trije robotski zakoni Isaaca Asimova - ki omejujejo vedenje androidov in avtomatov, da bi človeštvo ostalo na varnem - tudi niso bili dokončani. Ti zakoni so se prvič pojavili v zgodbi Asimova leta 1942 in nato v klasičnih delih, kot je "Jaz, robot", in zvenijo nekako takole:

1. Robot ne more škodovati osebi ali s svojim nedelovanjem dovoliti, da se osebi škoduje.

2. Robot mora upoštevati ukaze ljudi, če ta niso v nasprotju s prvim zakonom.

3. Robot mora zagovarjati svoj obstoj, če ta zaščita ne nasprotuje prvemu ali drugemu zakonu.

Seveda lahko v teh zakonih najdemo veliko protislovij in vrzeli (ki jih je pravzaprav uporabil sam Azimov). V sedanji dobi napredne programske opreme s strojnim učenjem in avtonomno robotiko je določanje in izvajanje železne etike umetne inteligence postalo pereč izziv za organizacije, kot sta Machine Intelligence Research Institute in OpenAI.

Christoph Salge je sprejel drugačen pristop. Namesto da bi uveljavili filozofske definicije od zgoraj navzdol, kako naj se ali ne smejo obnašati umetni dejavniki, Salge in njegov kolega Daniel Polani raziskujeta pot od spodaj navzgor ali "kaj bi moral najprej narediti robot", kot so zapisali v svojem članku "Opolnomočenje kot nadomestitev treh zakonov robotike." Empowerment, koncept, ki se je rodil na presečišču kibernetike in psihologije, opisuje lastno motivacijo agenta, da se hkrati upira in dela v okolju. »Kot organizem želi preživeti. Želi pustiti pečat v svetu, «razlaga Salge. Sesalnik Roomba, programiran za iskanje polnilne postaje, ko so njegove baterije skoraj prazne, je osnovni primer "opolnomočenja": nadaljevanje delovanja v svetu,prejeti mora naboj in nadaljevati svoj obstoj, torej preživeti.

Opolnomočenje se morda sliši kot recept za sam izid, ki se ga bojijo zagovorniki varne umetne inteligence, kot je Nick Bostrom: močan avtonomen sistem, ki se ukvarja samo z lastnimi interesi in v tem procesu postane nor. Toda Salge, ki preučuje družbene interakcije med človekom in strojem, se sprašuje: Kaj pa če pooblaščeni agent "pooblasti tudi drugega?" Robot ne sme samo želeti, da ostane v dobrem stanju, temveč mora podpirati tudi svojega človeškega partnerja."

Promocijski video:

Solge in Polanyi sta ugotovila, da teorija informacij ponuja način, kako to medsebojno širitev prevesti v matematični okvir umetnega sredstva, ki ne filozofira. "Ena od slabosti treh zakonov robotike je, da temeljijo na jeziku, jezik pa je dvoumen," pravi Salge. "Poskušamo najti nekaj, kar je dejansko mogoče storiti."

Nekateri tehnologi verjamejo, da je umetna inteligenca velika, celo katastrofalna nevarnost za človeški obstoj. In ti?

Vzdržal se bom. Tako resnično verjamem, da zdaj obstaja strah pred roboti in naraščajoč vpliv umetne inteligence. Menim pa, da nas bodo kratkoročno verjetno bolj skrbele morebitne spremembe službe, postopek odločanja, izguba demokracije in izguba zasebnosti. Ne vem, kako verjetno se bo kmalu pojavila neustavljiva umetna inteligenca. A tudi če naj bi umetna inteligenca nadzorovala zdravstveni sistem in izdajala recepte, moramo razmisliti o etičnih vprašanjih, ki se pojavijo med njegovim delovanjem.

Kako nam lahko koncept opolnomočenja pomaga pri soočanju s temi izzivi?

Mislim, da ideja o opolnomočenju zapolnjuje nišo. Ne bo dovolila, da agent pusti osebo, da umre, toda ko se boste držali tega praga, bo podprla namen, da bo osebi ustvaril dodatne priložnosti za izražanje in vplivanje na svet. V eni izmed Asimovih knjig bodo roboti preprosto postavili vse ljudi v varne posode. To bi bilo nezaželeno. Če se bo naša sposobnost vplivanja na svet še naprej izboljševala, mislim, da bo to veliko bolj zanimiv cilj.

Ideje navideznih agentov ste preizkusili v okolju video iger. Kaj se je zgodilo?

Agent, ki ga motivirajo lastne razširjene pravice, se bo izognil izstrelku in ne bo padel v jamo, na splošno se bo izognil situaciji, ki bi lahko privedla do njegove izgube gibljivosti, smrti ali škode na tak način, da bi zmanjšala njegovo operativnost. Samo počakal bo.

V povezavi s človeškim igralcem, ki je prav tako obdarjen z razširjenimi pravicami, smo videli, da bo virtualni robot ohranil določeno razdaljo, da ne bo oviral človeškega gibanja. Ne bo vas blokiral, ne bo stal na hodniku, da ne boste mogli mimo. Ostal vam bo čim bližje, da vam bo pomagal. To vodi do vedenja, pri katerem lahko prevzame pobudo in sledi nekoga drugega.

Na primer, ustvarili smo scenarij, v katerem smo imeli lasersko pregrado, ki je nevarna za ljudi, a varna za robota. Če se oseba v tej igri približa laserjem, ima robot večjo spodbudo, da blokira laser. Dražljaj se poveča, ko človek stoji neposredno pred pregrado, kot da bi jo hotel prestopiti. In robot dejansko blokira laser, ki stoji pred osebo.

Ali so ti agenti izkazali kakršno koli nenamerno vedenje, podobno tistim iz zakona Asimove knjige?

Najprej je bilo vedenje dobro. Na primer, virtualni robot je prestregel nasprotnike, ki so vas poskušali ubiti. Od časa do časa bi skočil pod kroglo, če bi te le tako rešil. Toda tisto, kar nas je presenetilo predvsem od samega začetka, je bilo, da se je tudi sam zelo bal osebe.

Razlog za to je njegov "kratkoviden" model: pravzaprav analizira, kako lahko zaporedja določenih dejanj v dveh ali treh korakih vplivajo na svet, tako za vas kot zanj. Zato smo v prvem koraku programirali, da igralec deluje naključno. Toda v praksi je to povzročilo dejstvo, da je agent z osebo ravnal kot z nekakšnim psihopatom, ki bi lahko na primer kadar koli ustrelil agenta. Zato je moral agent zelo, zelo previdno izbrati položaj, v katerem ga oseba ne bi mogla ubiti.

To smo morali popraviti, zato smo oblikovali tako imenovano predpostavko zaupanja. V bistvu spremljevalni agent deluje ob predpostavki, da bo oseba izbrala le tiste ukrepe, ki ne bodo omejili razširjenih pravic samega zastopnika - morda je to bolj primeren model za spremljevalca.

Opazili smo tudi, da če imate recimo 10 zdravstvenih točk v igri, spremljevalca pravzaprav ne zanima, ali ste od teh točk izgubili osem ali devet - lahko bi vas celo enkrat ustrelil, samo za zabavo. In potem smo ugotovili, da obstaja vrzel med svetom, v katerem živimo, in modelom v računalniški igri. Takoj, ko smo modelirali omejitve zmogljivosti zaradi izgube zdravja, je težava izginila. To bi lahko rešili tudi z ustvarjanjem modela, ki ni bil tako kratkoviden, da bi lahko izračunal ukrepe še nekaj korakov v prihodnost. Če bi agent lahko pogledal naprej v prihodnost, bi videl, da bi lahko bilo več zdravstvenih točk koristno za prihodnje dogodke.

Ob upoštevanju, da sprememba števila zdravstvenih točk nikakor ne vpliva na moje razširjene pravice, se agent odloči: "Ustrelim ga, ne ustrelim - kakšna je razlika?" In včasih strelja. Kar je seveda problem. Nočem naključnih strelov v igralce. Dodali smo popravek, s katerim je virtualni robot nekoliko bolj zaskrbljen zaradi vašega stanja kot svojega.

Kako narediti te koncepte natančne?

Če agente obravnavamo kot nadzorne sisteme, jih lahko razstavimo na informacijske komponente: v svetu se nekaj dogaja in vas tako ali drugače zadeva. O informacijah ne govorimo kot o stvareh, ki jih zaznate, temveč kot o kakršnih koli vplivih - lahko gre za snov, nekaj, kar teče med svetom in vami. V telesu so lahko temperatura ali hranila. Vsaka stvar, ki prečka mejo med svetom in agentom, nosi informacije v sebi. Na enak način lahko agent na različne načine vpliva na zunanji svet in vanj tudi oddaja informacije.

Ta tok lahko štejete za pasovno širino kanala, to je koncept iz informacijske teorije. Če imate različna dejanja, ki vodijo do različnih rezultatov, imate široka pooblastila in razširjene pravice. Če gre kaj narobe, boste izgubili svojo avtoriteto, ker izguba zmogljivosti ustreza količinskemu zmanjšanju pasovne širine kanala med vami in okoljem. To je glavna ideja.

Koliko mora agent vedeti, da bodo njegove razširjene pristojnosti polno učinkovale?

Prednost razširjenih pravic je, da jih je mogoče uporabiti tudi, če nimate popolnega znanja. Agent resnično potrebuje model, kako bodo njegova dejanja vplivala na svet, vendar ne potrebuje popolnega razumevanja sveta in vseh njegovih prefinjenosti. Za razliko od nekaterih pristopov, ki poskušajo čim bolj modelirati vse na svetu, morate v našem primeru le ugotoviti, kako vaša dejanja vplivajo na vaše lastno zaznavanje. O vsem se vam ni treba naučiti vsega; potrebujete samo agenta, ki raziskuje svet. Nekaj naredi in poskuša razumeti, kako njegova dejanja vplivajo na svet. Model raste in agent vse bolje razume, kje segajo meje njegovih moči.

Preizkusili ste ga v virtualnem okolju. Zakaj ne v resničnem svetu?

Glavna ovira za skaliranje tega modela in njegovo namestitev v pravega robota je težava pri izračunu pasovne širine agenta in osebe v tako bogatem okolju, kot je resnični svet, za dolgo časa. Vsi ti procesi še niso postali učinkoviti. Sem optimističen, vendar zaenkrat ta problem ostaja zgolj računski. Zato preverjamo delovanje sistema v računalniški igri, v poenostavljeni obliki.

Zdi se, da bodo z opolnomočenjem naši stroji v idealnem primeru postali močni servisni psi

Poznam celo nekatere robotske tehnike, ki namerno oblikujejo vedenje pasjega spremljevalca. Mislim, da če se roboti do nas obnašajo kot do psov, se bomo v prihodnosti vsi lahko razumeli.

Ilya Khel