Nevarno človeštvo: Zakaj Potrebujemo Inteligentno Umetno Inteligenco? - Alternativni Pogled

Kazalo:

Nevarno človeštvo: Zakaj Potrebujemo Inteligentno Umetno Inteligenco? - Alternativni Pogled
Nevarno človeštvo: Zakaj Potrebujemo Inteligentno Umetno Inteligenco? - Alternativni Pogled

Video: Nevarno človeštvo: Zakaj Potrebujemo Inteligentno Umetno Inteligenco? - Alternativni Pogled

Video: Nevarno človeštvo: Zakaj Potrebujemo Inteligentno Umetno Inteligenco? - Alternativni Pogled
Video: Umetna inteligenca IPoly vision, 2024, Maj
Anonim

Ko je Norbert Wiener, oče kibernetike, leta 1950 napisal svojo knjigo Človeške uporabe človeških bitij, so bile vakuumske cevi še vedno glavni elektronski gradniki, v resnici pa je bilo le nekaj računalnikov. Vendar je zamislil prihodnost, ki jo zdaj vidimo, z izjemno natančnostjo, pri čemer je zmotil le manjše podrobnosti.

Pred katerim koli drugim filozofom umetne inteligence je spoznal, da AI ne bo samo posnemal - in nadomestil - človeka v mnogih vrstah intelektualnih dejavnosti, ampak bo tudi spremenil ljudi v tem procesu. "Mi smo samo vrtinci v reki vedno tekoče vode," je zapisal. "Nismo nekaj, kar samo živi, mi smo modeli, ki bivali v sebi."

Na primer, ko se pojavijo številne vabljive priložnosti, smo pripravljeni plačati in sprejeti majhne stroške vodenja podjetja za dostop do novih priložnosti. In zelo kmalu postanemo odvisni od novih orodij, izgubimo sposobnost obstoja brez njih. Možnosti postanejo obvezne.

To je zelo stara zgodovina evolucije in mnoga poglavja iz nje so nam dobro znana. Večina sesalcev lahko sintetizira lastni vitamin C, toda primati, ki jedo sadje, so to vgrajeno sposobnost izgubili. Ponavljajoči se vzorci, ki jih imenujemo ljudje, se zdaj zanašajo na oblačila, predelano hrano, vitamine, brizge, kreditne kartice, pametne telefone in internet. In jutri, če ne danes, iz umetne inteligence.

Wiener je predvideval več težav s takšnim stanjem, ki so jih Alan Turing in drugi zgodnji optimisti AI večinoma spregledali. Dejanska grožnja je bila:

… je, da lahko takšne stroje, čeprav so sami po sebi nemočni, ljudje uporabljajo ali blokirajo ljudi, da povečajo nadzor nad preostalo dirko, ali pa politični voditelji lahko skušajo prevzeti nadzor nad svojim prebivalstvom s političnimi metodami in ne s stroji samimi, tako ozko in brezbrižno do človeka, kot da bi ga izumili mehansko.

Očitno so te nevarnosti zdaj zelo pomembne.

Na primer, v medijih nam inovacije digitalnega zvoka in videa omogočajo, da plačamo majhno ceno (v očeh avdiofilov in filmarjev), da se oddaljimo od analognih formatov, in v zameno dobimo izjemno preprost - preveč preprost - način predvajanja zapisov s skoraj nobenimi omejitvami.

Promocijski video:

Image
Image

A tu so ogromni skriti stroški. Orwellova služba resnice je postala resnična priložnost. AI-jeve tehnike za ustvarjanje skoraj neločljivih lažnih "zapisov" naredijo orodja, ki smo jih uporabljali za preiskave, zastarelih zadnjih 150 let.

Prepustiti se moramo le kratkemu obdobju fotografskih dokazov in se vrniti v tisti stari svet, kjer sta bili človeški spomin in zaupanje zlati standard. Lahko pa razvijemo nove metode obrambe in napada v boju za resnico. Eden najbolj vznemirljivih nedavnih primerov je dejstvo, da je uničiti ugled veliko ceneje kot zaslužiti in zaščititi isti ugled. Wiener je ta pojav videl zelo široko: "Dolgoročno ne bo razlike med oboroževanjem in oborožitvijo sovražnika." Doba informacij je postala tudi doba dezinformacij.

Kaj lahko storimo? Ključno je isto Wienerjevo opazovanje, da so "ti stroji" sami po sebi nemočni. " Ustvarjamo orodja, ne kolegi, in resna grožnja je, da ne vidimo razlike.

Umetna inteligenca v sedanji obliki parazitira na človeško inteligenco. Zelo brezskrbno prevzame vse, kar so ustvarili človeški ustvarjalci, in nariše vzorce - vključno z našimi najbolj skrivnimi navadami. Ti stroji še nimajo ciljev ali strategij, niso sposobni samokritičnosti in inovacij, preučujejo le naše baze podatkov, brez lastnih misli in ciljev.

Kot pravi Wiener, niso nemočni v smislu, da so priklenjeni ali imobilizirani, ne, sploh niso povzročitelji - nimajo sposobnosti "ravnanja iz vzrokov", kot bi rekel Kant.

Dolgoročno je načeloma možno "močno AI" ali splošno umetno inteligenco, vendar ni zaželeno. Še bolj omejen AI, ki je danes v praksi mogoč, ne bo hudoben. Toda predstavlja grožnjo - deloma zato, ker jo lahko zmoti močan AI.

Kako močna je danes umetna inteligenca?

Razkorak med današnjimi sistemi in znanstveno-fantastičnimi sistemi, ki preplavijo popularno domišljijo, je še vedno velik, čeprav ga mnogi ljudje, tako amaterji kot profesionalci, navadno podcenjujejo. Oglejmo si Watsonov IBM, ki je v današnjem času in starosti morda ugleden.

Ta superračunalnik je rezultat izjemno obsežnega raziskav in razvoja (raziskav in razvoja), ki je v mnogih stoletjih vključeval številne ljudi in inteligence, zato porabi tisočkrat več energije kot človeški možgani. Njegova zmaga v Jeopardyju! je bilo resnično zmagoslavje, ki so ga omogočile formulirane omejitve Jeopardyjevih pravil !, vendar je bilo treba tudi ta pravila spremeniti, da je lahko sodeloval. Moral sem se odreči malo vsestranskosti in dodati humanost, da sem lahko nastopal.

Watson je slabo podjetje, čeprav zavajajoče oglase IBM-a, ki obljubljajo sposobnost pogovora AI na obeh ravneh, in zaradi česar bo Watson verodostojen večplasten agent, bi bilo podobno izdelavi kalkulatorja Watson-a. Watson je morda tak računalnik dober računalniški primer, prej pa možgan ali amigdala, ne pa um - v najboljšem primeru podsistem s posebnim namenom, ki služi kot podpora, ne pa skoraj sistem za načrtovanje in oblikovanje ciljev na podlagi prejete pogovorne izkušnje.

Zakaj bi radi ustvarili miselnega in kreativnega agenta iz Watsona? Morda nas je Turingova briljantna ideja - znameniti Turingov test - zvabila v past: postali smo obsedeni, če smo ustvarili vsaj privid resničnega človeka, ki sedi pred zaslonom, mimo »zlobne doline«.

Nevarnost je, da odkar je Turing predstavil svojo nalogo - ki je bila predvsem naloga prevariti sodnike - so jo ustvarjalci AI poskušali uresničiti s smešnimi humanoidnimi lutkami, "risanimi" različicami, ki bodo očarile in razorožile neopažene. ELIZA Josepha Weisenbauma, prvega klepeta, je bil odličen primer ustvarjanja takšne iluzije, vendar z izjemno preprostim algoritmom, ki bi ljudi lahko prepričal, da se z drugimi ljudmi iskreno in iskreno pogovarjajo.

Skrbelo ga je zaradi lahkotnosti, s katero so ljudje pripravljeni to verjeti. In če imamo eno leto iz Lebnerjeve nagrade z omejenim testom Turinga, je to, da tudi najpametnejši ljudje, ki niso seznanjeni z računalniškim programiranjem, zlahka padejo na te preproste trike.

Odnos ljudi v AI do takšnih tehnik sega od razsodnega do nagrajevanja, konsenz pa je, da ti triki niso zelo globoki, vendar so lahko koristni. Sprememba v stališču, ki bi bila zelo dobrodošla, bi bilo iskreno priznanje, da so risani androidi z lutkami lažni oglasi, ki jih je treba obsojati, ne pa spodbujati.

Kako to doseči? Ko bomo razumeli, da ljudje začnejo sprejemati odločitve o življenju in smrti, upoštevajoč nasvete sistemov AI, katerih notranje delovanje je skoraj nerazumljivo, bomo videli dober razlog, da se bodo tisti, ki ljudi pozivajo k zaupanju takšnih sistemov, začeli zanašati na norme morale in zakona.

Sistemi umetne inteligence so zelo močna orodja. Tako močan, da imajo tudi strokovnjaki dober razlog, da ne zaupajo lastni presoji, kadar obstajajo "sodbe", ki jih predstavljajo ta orodja. Če pa bodo uporabniki teh orodij od popularizacije teh orodij koristili finančno ali kako drugače, morajo poskrbeti, da bodo znali to storiti s polno odgovornostjo, največjim nadzorom in upravičenostjo.

Licenciranje in odobritev upravljavcev takšnih sistemov - tako kot licenciramo farmacevte, upravljavce žerjavov in druge strokovnjake, katerih napake in napačne presoje lahko imajo hude posledice - morda s podporo zavarovalnic in drugih organizacij prisilijo ustvarjalce sistemov AI, da gredo po dolgi poti, ki iščejo slabosti in pomanjkljivosti svojih izdelkov in tudi usposabljajo tiste, ki bodo delali z njimi.

Lahko si predstavljamo neke vrste povratni Turingov test, v katerem bo sodnik presoja; dokler ne ugotovi šibkosti, kršitve meja, vrzeli v sistemu, ne bo dobil dovoljenja. Tak sodnik bo za pridobitev spričevala potreboval resno usposabljanje. Nagon, da človeku pripišemo človeško sposobnost razmišljanja, kot to običajno počnemo pri srečanju z inteligentnim agentom, je zelo, zelo močan.

Pravzaprav je sposobnost, da se upiramo nagonu, da vidimo nekaj humaniziranega, čudna stvar. Marsikomu bi takšno nadarjenost postalo dvomljivo, saj so tudi najbolj pragmatični uporabniki sistema občasno »prijazni« glede svojih orodij.

Ne glede na to, kako skrbno se oblikovalci AI odločijo odpraviti ponarejene "človeške" pretonce v svojih izdelkih, bi morali pričakovati razcvet nalepk, reševanja in sprejemljiva izkrivljanja dejanskega "razumevanja" obeh sistemov in njihovih operaterjev. Tako kot se na televiziji oglašujejo zdravila z dolgim seznamom neželenih učinkov ali alkohol oglašuje z obilico drobnega tiska z vsemi opozorili, ki jih zahteva zakon, tako da bodo razvijalci umetne inteligence upoštevali zakon, a se izpopolnili v opozorilih.

Zakaj potrebujemo umetno inteligenco?

Ne potrebujemo umetno zavestnih agentov. Obstaja vrsta naravnih zavestnih agentov, ki zadostujejo za izvedbo kakršnih koli nalog za strokovnjake in privilegirane posameznike. Potrebujemo pametna orodja. Orodja nimajo pravic in ne bi smela imeti občutkov, ki bi jih lahko poškodovali ali zlorabili.

Eden od razlogov, da ne bi bili umetno zavestni dejavniki, je, da čeprav lahko postanejo samostojni (in načeloma so lahko tako samostojni, samopopolnjujoči se ali samo ustvarjajoči kot vsaka oseba), se ne smejo - brez posebnega dovoljenja - deliti z našimi naravni zavestni povzročitelji, naša ranljivost ali naša smrtnost.

Daniel Dennett, profesor filozofije na Univerzi Tufts, je nekoč izzval študente na delavnici o umetnih sredstvih in samostojnosti: Navedite mi specifikacije robota, ki lahko z vami podpiše pogodbo - ne nadomestnega lastnika druge osebe, temveč samega sebe. Ne gre za razumevanje razlogov ali manipuliranje s peresom na papirju, temveč za lastništvo in zasluženo lastništvo pravnega statusa in moralne odgovornosti. Majhni otroci ne morejo podpisovati takšnih pogodb, kot tudi invalidi, katerih pravni status jih obvezuje, da so pod skrbništvom in skrbnikom nalagajo odgovornost.

Težava robotov, ki bi morda želeli doseči takšen vzvišen status, je ta, da so, podobno kot Superman, preveč ranljivi za tovrstne trditve. Če jih zavrnejo, kaj se bo zgodilo? Kakšna bo kazen za kršenje obljube? Ali jih bodo zaprli v kletko ali odpeljali narazen? Zapor za umetno inteligenco ne bo neprijeten, če najprej ne napolnimo žeje po svobodi, ki je AI ne more prezreti ali onemogočiti. Z demontažo AI ne boste ubili informacij, ki so shranjene na disku in v programski opremi.

Enostavnost digitalnega snemanja in prenosa podatkov - preboj, ki je omogočil, da programska oprema in podatki dejansko dosežejo nesmrtnost - robote naredijo neranljive. Če se vam ne zdi očitno, pomislite, kako bi se spremenila moralnost ljudi, če bi lahko vsak teden podprli ljudi. Skok s mostu brez gumijastega traku v nedeljo po petkovem varnostnem kopiranju je lahko neopazna odločitev, posnetke svoje nepravočasne smrti pa si lahko ogledate pozneje.

Zato ne ustvarjamo zavestnih - radi bi ustvarili - humanoidnih agentov, temveč povsem novo vrsto bitij, nekaj orakel, nezavednih, brez strahu pred smrtjo, brez motenja ljubezni in sovraštva, brez osebnosti: ogledala resnice, ki jih bo človek skoraj zagotovo okužil laži.

Človeška uporaba ljudi se bo kmalu - za enkrat - za vedno spremenila, vendar če prevzamemo odgovornost za svojo evolucijsko usmeritev, se lahko izognemo nepotrebnim nevarnostim.

Ilya Khel