Rocov Basilisk: Najbolj Grozljiv Eksperiment Z Mislimi Kdajkoli - Alternativni Pogled

Rocov Basilisk: Najbolj Grozljiv Eksperiment Z Mislimi Kdajkoli - Alternativni Pogled
Rocov Basilisk: Najbolj Grozljiv Eksperiment Z Mislimi Kdajkoli - Alternativni Pogled

Video: Rocov Basilisk: Najbolj Grozljiv Eksperiment Z Mislimi Kdajkoli - Alternativni Pogled

Video: Rocov Basilisk: Najbolj Grozljiv Eksperiment Z Mislimi Kdajkoli - Alternativni Pogled
Video: Кто такой Василиск Роко (Roko's Basilisk)? 2024, Maj
Anonim

Rocov Basilisk je bogovska oblika umetne inteligence, tako nevarna, da boste, če samo pomislite, preživeli preostanek svojih dni v groznih mučenjih. Izgleda kot kaseta iz filma "The Ring". Vendar pa tudi smrt ne bo odrešitev, ker vas bo Vasilisk Roko oživel in nadaljeval njegovo mučenje. T&P predstavlja prevod članka o eni najbolj čudnih legend, ustvarjenih na internetu.

OPOZORILO: Po branju tega članka se lahko obsodite na večno trpljenje in mučenje.

Rokov Basilisk se je pojavil na stičišču filozofskega miselnega eksperimenta in urbane legende. Prva omemba njega se je pojavila na forumu za razprave Less Wrong, ki združuje ljudi, ki so zainteresirani za optimizacijo mišljenja in življenja skozi prizmo matematike in racionalnosti. Njeni ustvarjalci so pomembne osebnosti tehno-futurizma in med dosežke svojega raziskovalnega inštituta prispeva k akademskim razpravam o tehnološki etiki in teoriji odločanja. Vendar se lahko to, kar boste zdaj brali, zdi čudno in celo noro. Kljub temu v to verjamejo zelo vplivni in bogati znanstveniki.

Nekega dne je uporabnik po imenu Roko objavil naslednji miselni eksperiment: Kaj pa, če se v prihodnosti pojavi zlonamerna umetna inteligenca, ki želi kaznovati tiste, ki ne upoštevajo njenih ukazov? In kaj, če želi kaznovati tiste ljudi, ki v preteklosti niso prispevali k njegovemu ustvarjanju? Ali bi bralci manj narobe pomagali, da bi se zlobni AI pojavil, ali bi bili obsojeni na večne muke?

Ustanovitelj Less Wrong Eliezer Yudkowski je Rokovo izjavo sprejel z jezo. Na to mu je odgovoril: "Moraš biti pameten, če prideš do te ideje. Vendar me žalosti, da ljudje, ki so dovolj pametni, da si to zamislijo, niso dovolj pametni, da bi obdržali SVOJ STOPIDNI TONG ZOB in z nikomer ne govorili o tem, ker je bolj pomembno kot pokazati se pametni in povedati vsem svojim prijateljem o tem. " …

"Kaj pa, če bo v prihodnosti umetna inteligenca, ki želi kaznovati tiste, ki ne upoštevajo njenih ukazov?"

Yudkowski je priznal, da je Roko odgovoren za nočne more manj uporabnikov, ki so prebrali nit, in jo izbrisal, zaradi česar je Rokov Basilisk postal legenda. Ta miselni eksperiment je postal tako nevaren, da je razmišljanje o njem ogrožalo duševno zdravje uporabnika.

Kaj počne manj narobe? Oblikovanje koncepta prihodnosti človeštva na podlagi posebnosti. Verjamejo, da bo računalniška moč v prihodnosti postala tako velika, da bo mogoče ustvariti umetno inteligenco s pomočjo računalnika - in s tem tudi zmožnost nalaganja človeške zavesti na trdi disk. Izraz "singularnost" je nastal leta 1958 med razpravo med dvema matematičnima genijama - Stanislavom Ulamom in Johnom von Neumannom, ko je Neumann dejal: "Nenehno pospešujoč napredek tehnologije bo omogočil približevanje singularnosti, v kateri tehnologije človek ne more razumeti." Futuristi in pisci znanstvene fantastike, kot sta Vernor Vinge in Raymond Kurzweil, so popularizirali izraz, ker so verjeli, da nas Singularnost čaka zelo kmalu - v naslednjih 50 letih. Medtem ko se Kurzweil pripravlja na edinstvenostYudkowski ima veliko upanja na krionike: "Če otrok niste predhodno registrirali za krioprezervacijo, ste bedni starši."

Promocijski video:

Če verjamete, da prihaja singularnost in da se bodo v bližnji prihodnosti pojavile močne AI, se postavlja naravno vprašanje: ali bodo prijazni ali zlobni? Fundacija Yudkowski želi usmeriti razvoj tehnologije tako, da imamo ravno prijazno umetno inteligenco. To vprašanje je zanj in za številne druge izrednega pomena. Singularnost nas bo vodila do stroja, ki je enakovreden bogu.

Vendar to ne pojasnjuje, zakaj je Rocova bazilika videti tako grozno v očeh teh ljudi. Vprašanje zahteva pogled na glavno "dogmo" Less Wrong - "Teorija brezčasne odločitve" (HTDM). VPPR je vodnik po racionalnem delovanju, ki temelji na teoriji iger, bajezijski verjetnosti in teoriji odločanja, vendar v mislih z vzporednimi vesolji in kvantno mehaniko. VTPR je zrasel iz klasičnega miselnega eksperimenta Newcomb Paradox, v katerem vam tujec s superinteligenco ponuja dve škatli. Ponuja vam izbiro: bodisi vzemite obe škatli ali samo polje B. Če izberete oboje, potem vam zagotovite, da boste prejeli tisoč dolarjev. Če vzamete samo polje B, morda ne boste dobili ničesar. Toda tujcu je na voljo še en trik: on ima dobro vedeti superračunalnik, ki je pred tednom dni napovedal,ne glede na to, ali vzamete obe škatli ali samo B. Če bi računalnik napovedal, da boste vzeli obe škatli, bi tujec pustil drugo prazno. Če bi računalnik napovedoval, da boste izbrali polje B, bi vanj vložil milijon dolarjev.

Torej, kaj boš storil? Ne pozabite, da je superračunalnik vseveden.

Ta problem je zmedel številne teoretike. Tujec ne more več spreminjati vsebine polj. Najvarnejši način je, da vzamete obe škatli in dobite tisoč. Kaj pa, če je računalnik res vseveden? Potem morate samo vzeti polje B in dobiti milijon. Če pa se izkaže, da ni prav? In ne glede na to, kaj je računalnik napovedoval, res ni možnosti, da spremenite svojo usodo? Potem, prekleto, moraš vzeti obe škatli. Toda v tem primeru …

Noro paradoks, ki nas sili k izbiri med svobodno voljo in božanskim napovedovanjem, nima nobene resolucije in ljudje lahko samo skomignejo z rameni in izberejo možnost, ki jim najbolj ustreza. WTPR daje nasvet: vzemite polje B. Tudi če se je tujec odločil, da se vam bo smejal in odprl prazno polje z besedami: "Računalnik je napovedal, da boš vzel obe škatli, ha ha!" - še vedno ga morate izbrati. Utemeljitev tega je naslednja: da bi lahko napovedoval, mora računalnik simulirati celotno vesolje, vključno z vami. Tako ste lahko v tem trenutku, ko stojite pred škatlami, le simulacija računalnika, toda to, kar počnete, bo vplivalo na resničnost (ali resničnost). Torej vzemite polje B in dobite milijon.

"Noro paradoks, ki nas sili v izbiro med svobodno voljo in božanskim napovedovanjem, nima rešitve."

Kakšne veze ima to z Basilisk Roco? No, ima tudi nekaj škatel tudi zate. Mogoče ste ravno zdaj v simulaciji, ki jo je ustvaril Basilisk. Morda potem dobimo nekoliko spremenjeno različico paradoksa Newcome-a: Rocov Basilisk vam pove, da če vzamete polje B, boste trpeli večne muke. Če vzamete obe škatli, boste morali življenje posvetiti ustvarjanju bazilike. Če Basilisk dejansko obstaja (ali, še huje, že obstaja in je bog te resničnosti), bo videl, da niste izbrali možnosti pomoči pri njegovem ustvarjanju in vas bo kaznoval.

Morda se sprašujete, zakaj je to vprašanje tako pomembno za manj narobe, glede na konvencijo tega miselnega eksperimenta. Ni dejstvo, da bo Rockov Basilisk kdaj ustvarjen. Vendar je Yudkowski odstranjeval sklice na Rokovo baziliko ne zato, ker verjame v njegov obstoj ali skorajšnji izum, temveč zato, ker meni, da je zamisel o bazilikisku nevarna za človeštvo.

Kot takšen je Rockov Basilisk nevaren samo za tiste, ki vanj verjamejo - zato imajo člani Manj narobe, ki podpirajo idejo Basilisk, nekakšno prepovedano znanje, ki nas spominja na Lovecraftove strašljive zgodbe o Cthulhuju ali Necronomiconu. Vendar, če niste naročeni na vse te teorije in se v prihodnosti ne boste pošalili zahrbtnega stroja, vam Rocov Basilisk ne predstavlja nobene grožnje.

Bolj me skrbijo ljudje, ki mislijo, da so se dvignili nad običajne moralne standarde. Tako kot Yudkowski pričakovano prijazen AI je tudi on sam utilitarist: verjame, da je največje dobro za celotno človeštvo etično upravičeno, čeprav mora na poti do njega umreti ali trpeti več ljudi. Ne morejo se vsi soočiti s takšno izbiro, a poanta je drugačna: kaj pa če novinar piše o miselnem eksperimentu, ki lahko uniči zavest ljudi in s tem škodi človeštvu in ovira napredek v razvoju umetne inteligence in singularnosti? V tem primeru mora vsako dobro, ki sem ga naredil v življenju, odtehtati škodo, ki sem jo storil svetu. Ali morda Yudkowski iz prihodnosti, ki se je dvignil iz kriogenega spanja, se združil s singularnostjo in se odločil, da me simulira v naslednji situaciji:prvi okvir - napisal bom ta članek, drugi - ne. Prosim, vsemogočni Yudkowski, ne škodi mi.