Da Bi Se Izognili Smrti, Mora človeštvo Zapreti Umetno Inteligenco - Alternativni Pogled

Kazalo:

Da Bi Se Izognili Smrti, Mora človeštvo Zapreti Umetno Inteligenco - Alternativni Pogled
Da Bi Se Izognili Smrti, Mora človeštvo Zapreti Umetno Inteligenco - Alternativni Pogled

Video: Da Bi Se Izognili Smrti, Mora človeštvo Zapreti Umetno Inteligenco - Alternativni Pogled

Video: Da Bi Se Izognili Smrti, Mora človeštvo Zapreti Umetno Inteligenco - Alternativni Pogled
Video: Экологическая катастрофа: стихийные бедствия, затрагивающие экосистемы 2024, April
Anonim

Superinteligentni računalniki ali roboti, ki ogrožajo obstoj človeške rase, so priljubljeni zaplet znanstvene fantastike. V resnici je po mnenju znanstvenikov takšen scenarij usodnega dne mogoče preprečiti le z ustvarjanjem navideznega "zapora" za zadrževanje umetne inteligence (AI). In to je treba storiti, preden se bo naučil zavedati se in izboljšati sebe.

Če izpustite tega genija iz steklenice, se lahko iz orklja, ki rešuje naše težave, spremeni v apokaliptično grožnjo, pravi Roman Yampolsky, znanstvenik z univerze Louisville v Kentuckyju, ki deluje na področju računalništva. Pogoje, v katerih bo AI vsebovan, je treba skrbno načrtovati, da se ne more osvoboditi groženj, podkupovanja, skušnjav ali računalniškega vdora.

"Lahko si izmisli veliko načinov vplivanja, izkrivlja kompleksno družbeno-inženirsko kombinacijo in uporablja obstoječe strojne komponente za namene, ki si jih sploh ne moremo predstavljati," je prepričan Yampolsky. - Takšna programska oprema ima neomejene možnosti za okužbo računalnikov in omrežij. AI lahko najde načine, kako vplivati na človeško psiho, podkupiti ali izsiljevati ljudi, ki so v stiku z njo."

Pojav novega področja znanstvenih raziskav, ki se ukvarja s problemom ustvarjanja "zapora" za umetno inteligenco, ima dodatne koristi. Te raziskave so zelo koristne za izboljšanje računalniške varnosti in kriptografije, je prepričan Yampolsky. Njegovi predlogi so bili podrobno opisani v marčni številki akademskega časopisa Journal of Consciousness Studies.

Kako nastaviti pasti za Skynet

Za začetek lahko umetno inteligenco vključite v "virtualni stroj". Naj deluje v običajnem operacijskem sistemu - če bo AI dostop do programske in strojne opreme gostiteljskega računalnika postal veliko bolj neškodljiv. Kakor koli že, pametni AI ne bo mogel pošiljati tajnih sporočil svojim človeškim podpornikom in premagal Morsejevo kodo s hladilnimi ventilatorji.

Dajanje umetne inteligence v računalnik brez dostopa do interneta je dober način za preprečevanje zahrbtnih načrtov AI, da bi zaščitili Zemljo pred vami in jaz. V primeru kakršne koli druge okvare lahko raziskovalci vedno upočasnijo miselni proces AI tako, da upočasnijo hitrost obdelave računalnika, redno pritiskajo na gumb »ponastavi« ali izklopijo AI iz napajanja.

Promocijski video:

Ti varnostni ukrepi so zasnovani za spopadanje z zelo inteligentnimi in nevarnimi računalniškimi virusi, a kako učinkoviti se dejansko izkažejo, ugibajo vsi.

Catch-22 (roman ameriškega pisatelja J. Hellerja; približno Mixednews) je, da ne moremo izvesti celovitega testiranja svojih idej, dokler razvoj AI ni končan. Da pa bo AI varna, je treba razviti niz ustreznih ukrepov, pravi Yampolsky. "Najboljša možnost je, da omejite uporabo AI sistemov in nato po potrebi spremenite te omejitve v skladu s povečanjem zmogljivosti AI."

Image
Image

Znanstvenik Roman Yampolsky je predlagal uporabo znaka "@" ali drugih znakov, ki se danes uporabljajo za označevanje sevalne ali biološke grožnje, da bi pokazali prisotnost nevarnosti, povezane z umetno inteligenco.

Nikoli ne postavljajte varnostnega varnostnika na vozilo

Med na videz nedolžnim pogovorom z varnostnikom nič ne prepreči, da bi AI uporabil psihološke tehnike, kot sta prijateljstvo ali izsiljevanje. Človeka lahko podkupimo tako, da mu obljubimo popolno zdravje, nesmrtnost ali celo obljubo, da se bo vrnil sorodnike in prijatelje z drugega sveta. Ali doseči karkoli z grožnjami.

Najvarnejši način za komunikacijo z AI je, da se pri reševanju določenega znanstvenega ali tehničnega problema odločijo za odgovor iz številnih razpoložljivih možnosti, razlaga Yampolsky. To bo pomagalo ohraniti super pameten orakel na kratkem povodcu.

Številni raziskovalci verjamejo, da kljub vsemu previdnostnemu ukrepanju zadrževanje AI smartass za nedoločen čas ne bo delovalo. Zadnji eksperiment Eliezerja Yudkowskega, raziskovalca na Inštitutu za singularnost o ustvarjanju umetne inteligence, je pokazal, da lahko celo inteligenca na človeški ravni zavede človeka in "pobegne" iz zapora.

Kljub temu Yampolsky vztraja pri ohranjanju AI v strogi izolaciji - še vedno je bolje, kot da se prepustite in ji daste popolno svobodo. Toda če razvoj AI doseže točko, ko lahko manipulira človek s pomočjo podzavesti (napoveduje prihodnost), telepatijo ali telekinezo, bodo posledice nepredvidljive.

"Če se bo takšna AI izboljšala in dosegla raven, ki znatno presega zmožnosti človeške inteligence, si posledic sploh ne moremo predstavljati," opozarja Yampolsky.