Morilski Roboti? Nehajte, Tudi Dobri Roboti So Strašno Nepredvidljivi - Alternativni Pogled

Kazalo:

Morilski Roboti? Nehajte, Tudi Dobri Roboti So Strašno Nepredvidljivi - Alternativni Pogled
Morilski Roboti? Nehajte, Tudi Dobri Roboti So Strašno Nepredvidljivi - Alternativni Pogled

Video: Morilski Roboti? Nehajte, Tudi Dobri Roboti So Strašno Nepredvidljivi - Alternativni Pogled

Video: Morilski Roboti? Nehajte, Tudi Dobri Roboti So Strašno Nepredvidljivi - Alternativni Pogled
Video: ОБЗОР на САМОГО БЫСТРОГО РОБОТА ! 2024, Oktober
Anonim

Voditelji več kot sto vodilnih svetovnih družb za umetno inteligenco so zelo zaskrbljeni zaradi razvoja "morilskih robotov". V odprtem pismu OZN so ti poslovni voditelji, vključno z Elonom Muskom iz Tesle in ustanovitelji Googlovega podjetja DeepMind, opozorili, da bi teroristi in despoti lahko uporabili avtonomno orožno tehnologijo, ali pa naj bi jo do določene mere vdrli.

Resnična grožnja pa je veliko resnejša - in ne gre le za človekovo kršitev, temveč tudi za strojne kršitve. Pregled zapletenih sistemov kaže, da se lahko obnašajo veliko bolj nepredvidljivo, kot je mogoče sklepati iz vsote posameznih dejanj. Po eni strani to pomeni, da se lahko človeška družba ob študiju vedenja posameznikov obnaša zelo drugače, kot bi lahko pričakovali. Po drugi strani pa enako velja za tehnologijo. Tudi ekosistemi preprostih programov umetne inteligence - ki jim rečemo neumni, dobri boti - nas lahko presenetijo. Tudi posamezni boti se lahko obnašajo grozno.

Posamezni elementi, ki sestavljajo zapletene sisteme, kot so gospodarski trgi ali globalno vreme, ponavadi ne delujejo preprosto linearno. Zaradi tega je te sisteme zelo težko modelirati in razumeti. Na primer, tudi po letih podnebnih raziskav je nemogoče napovedati dolgoročno vedenje vremena. Ti sistemi so enako občutljivi na najmanjše spremembe, kolikor reagirajo eksplozivno. Zelo težko je v vsakem trenutku vedeti točno stanje takega sistema. Vse to naredi te sisteme notranje nepredvidljive.

Vsa ta načela veljajo za velike skupine ljudi, ki delujejo po svoje, pa naj gre za človeška društva ali skupine boti AI. Znanstveniki so pred kratkim preučevali vrsto zapletenega sistema, ki je uporabljal dobre bote za samodejno urejanje člankov iz Wikipedije. Te raznolike bote oblikujejo, pišejo in uporabljajo zaupanja vredni uredniki na Wikipediji, njihova osnovna programska oprema pa je odprtokodna in na voljo vsem. Posamezno imajo skupen cilj izboljšati enciklopedijo. Vendar se je njihovo kolektivno vedenje izkazalo za presenetljivo neučinkovito.

Dobro uveljavljena pravila in konvencije so v središču delovanja teh botov na Wikipediji, ker pa spletna stran nima centralnega nadzornega sistema, ni učinkovitega usklajevanja med osebami, ki vodijo različne bote. Rezultati so razkrili nekaj botov, ki so več let preklicali urejanje in jih nihče ni opazil. In seveda, ker se ti roboti sploh ne učijo, tudi tega niso opazili.

Ti boti so zasnovani za pospešitev postopka urejanja. Toda majhne razlike v zasnovi robotov ali med ljudmi, ki jih uporabljajo, bi lahko privedle do velikega zapravljanja virov v nenehni "vojni za urejanje", ki bi jo lahko uredniki rešili veliko hitreje.

Raziskovalci so tudi ugotovili, da se boti v različnih jezikovnih različicah Wikipedije obnašajo drugače. Pravila so, kot kaže, skoraj enaka, cilji so identični, tehnologije so podobne. Toda na nemški jezikovni Wikipediji je bilo bot sodelovanje veliko bolj učinkovito in produktivno kot na primer v portugalščini. To je mogoče razložiti le z razlikami med človeškimi uredniki, ki so vodili te bote v različnih okoljih.

Promocijski video:

Izrazita zmeda

Boti z Wikipedije nimajo široke avtonomije in sistem ne deluje več v skladu s cilji posameznih botov. Toda Fundacija Wikimedia namerava uporabiti AI, ki bo tem botom dal več avtonomije. In to verjetno vodi v še bolj nepredvidljivo vedenje.

Dober primer tega, kar se lahko zgodi, prikazujejo roboti, ki so zasnovani za pogovor z ljudmi, ko so prisiljeni komunicirati med seboj. Nad odzivi osebnih asistentov, kot je Siri, nismo več presenečeni. Toda priskrbite jim, da medsebojno komunicirajo in hitro se bodo začeli obnašati na nepričakovane načine, se prepirati in celo vreščati drug drugega.

Večji kot je sistem in bolj avtonomen postane vsak bot, bolj zapleteno in nepredvidljivo bo prihodnje vedenje tega sistema. Wikipedija je primer velikega števila sorazmerno preprostih botov pri delu. Primer chatbota je primer majhnega števila relativno zapletenih in iznajdljivih botov - v obeh primerih se pojavijo nepričakovani konflikti. Kompleksnost in s tem nepredvidljivost narašča eksponentno, ko osebnost doda sistem. Ko se bodo v prihodnosti pojavili sistemi z velikim številom zelo zapletenih robotov, bo njihova nepredvidljivost presegla našo domišljijo.

Utripajoča norost

Na primer, samovozeči avtomobili obljubljajo preboj v učinkovitosti in varnosti v cestnem prometu. Toda še ne vemo, kaj se bo zgodilo, ko bomo imeli velik divji sistem popolnoma avtonomnih vozil. Lahko se obnašajo drugače tudi v majhnem voznem parku posameznih vozil v nadzorovanem okolju. Še več nepredvidljivega vedenja pa se lahko zgodi, ko se začnejo medsebojno medsebojno voziti avtomobili, ki jih »trenirajo« različni ljudje.

Ljudje se lahko relativno hitro prilagodijo novim pravilom in konvencijam, vendar imajo težave pri preklopu med sistemi. Umetna sredstva so lahko še težja. Če na primer avto, ki je usposobljen v Nemčiji, potuje v Italijo, ne vemo, kako bo obvladal nenapisane kulturne konvencije, ki se jih držijo številni drugi avtomobili, usposobljeni v Italiji. Nekaj vsakdanjega, kot je prečkanje križišča, lahko postane smrtno tvegano, saj preprosto ne vemo, ali bodo avtomobili medsebojno delovali po pričakovanjih ali se bodo obnašali nepredvidljivo.

Zdaj razmislite o robotih morilcih, ki nadlegujejo Muska in njegove sodelavce. En robot morilec je lahko v napačnih rokah zelo nevaren. Kaj pa sistem nepredvidljivih morilskih robotov? Pomislite sami.

Ilya Khel