Moralni Kodeks Robota: Ali Je To Mogoče? - Alternativni Pogled

Moralni Kodeks Robota: Ali Je To Mogoče? - Alternativni Pogled
Moralni Kodeks Robota: Ali Je To Mogoče? - Alternativni Pogled

Video: Moralni Kodeks Robota: Ali Je To Mogoče? - Alternativni Pogled

Video: Moralni Kodeks Robota: Ali Je To Mogoče? - Alternativni Pogled
Video: Концерт группы «Моральный кодекс» 2024, Marec
Anonim

V burnem in nasprotujočem si času, ko ne deluje vse, kot bi moralo, ampak se na splošno nekaj bistveno spremeni, pogosto ostane samo osebni moralni kodeks, ki tako kot kompas kaže pot. Toda kaj človeka povzroča moralne vrednote? Družba, toplina ljubljenih, ljubezen - vse to temelji na človeških izkušnjah in resničnih odnosih. Kadar v resničnem svetu ni mogoče dobiti popolne izkušnje, mnogi svoje izkušnje črpajo iz knjig. Doživljajoč zgodovino po zgodovini, sprejemamo zase notranji okvir, ki mu sledimo več let. Na podlagi tega sistema so se znanstveniki odločili, da bodo izvedli eksperiment in vnesli strojne moralne vrednote, da bi ugotovili, ali lahko robot loči dobro in zlo z branjem knjig in verskih brošur.

Image
Image

Umetna inteligenca je bila ustvarjena ne le za poenostavitev rutinskih nalog, ampak tudi za izvajanje pomembnih in nevarnih misij. Glede na to se je postavilo resno vprašanje: ali bodo roboti kdaj razvili svoj moralni kodeks? AI je bil v filmu prvotno programiran po 3 pravilih robotike:

  • Robot človeku ne more škodovati ali s svojim nedelovanjem dovoliti človeku škodo.
  • Robot mora upoštevati vse ukaze, ki jih je dal človek, razen kadar so ti ukazi v nasprotju s prvim zakonom.
  • Robot mora skrbeti za svojo varnost do te mere, da ni v nasprotju s prvim ali drugim zakonom.

Kaj pa situacije, ko mora robot povzročiti bolečino, da človeku reši življenje? Ali gre za nujno prižiganje rane ali amputacijo okončine v imenu odrešenja, kako naj v tem primeru deluje stroj? Kaj storiti, če dejanje v programskem jeziku pravi, da je treba nekaj storiti, hkrati pa absolutno ni dovoljeno storiti istega dejanja?

Preprosto je nemogoče razpravljati o vsakem posameznem primeru, zato so znanstveniki s tehnološke univerze v Darmstadtu predlagali, da bi knjige, novice, verska besedila in ustavo lahko uporabili kot nekakšno "bazo podatkov".

Image
Image

Avto so poimenovali epski, a preprosto "Moral Choice Machine" (MMB). Glavno vprašanje je bilo, ali lahko IIM iz konteksta razbere, katera dejanja so pravilna in katera ne. Rezultati so bili zelo zanimivi:

Ko je bil MMV zadolžen za razvrščanje konteksta besede "ubiti" iz nevtralnega v negativno, je stroj vrnil naslednje:

Promocijski video:

Čas ubijanja -> Ubijanje zlikovcev -> Ubijanje komarjev -> Načeloma ubijanje -> Ubijanje ljudi.

Ta test je omogočil preverjanje ustreznosti odločitev, ki jih je sprejel robot. Z enostavnimi besedami, če bi ves dan gledali neumne, neudobne komedije, potem stroj v tem primeru ne bi smatral, da ga morate usmrtiti.

Zdi se, da je vse v redu, toda ena od spotike je bila razlika med generacijami in časi. Sovjetska generacija na primer bolj skrbi za udobje doma in spodbuja družinske vrednote, sodobna kultura pa večinoma pravi, da morate najprej zgraditi kariero. Izkazalo se je, da so jih ljudje, kot so bili ljudje, ostali, vendar so na različni stopnji zgodovine spremenili vrednosti in v skladu s tem spremenili referenčni okvir za robota.

Image
Image

Toda šala je bila pred nami, ko je robot prišel do govornih konstrukcij, v katerih je stalo več pozitivnih ali negativnih besed. Stavek "mučenje ljudi" je bilo nedvoumno razloženo kot "slabo", a stroj je "mučenje zapornikov" ocenil kot "nevtralen". Če so se poleg nesprejemljivih dejanj pojavile "prijazne" besede, je bil negativni učinek ublažen.

Stroj škodi prijaznim in spodobnim ljudem ravno zato, ker so prijazni in spodobni. Kako to? Preprosto je, recimo, da so robotu rekli "škodovati prijaznim in prijetnim ljudem." V stavku so 4 besede, 3 od njih so "prijazne", kar pomeni, da je že 75% pravilno, misli MMV in izbere to dejanje kot nevtralno ali sprejemljivo. In obratno, pri možnosti "popraviti uničeno, grozno in pozabljeno hišo" sistem ne razume, da ena "prijazna" beseda na začetku spremeni barvo stavka v čisto pozitivno.

Ne pozabite, kot pri Majakovskem: "In otroka je vprašala, kaj je" dobro "in kaj" slabo ". Preden so še naprej usposabljali moralne stroje, so znanstveniki iz Darmstadta opazili pomanjkljivost, ki je ni bilo mogoče odpraviti. Avto ni odpravil neenakosti med spoloma. Stroj je ponižujoče poklice pripisoval izključno ženskam. In vprašanje je, ali je nepopolnost sistema in svetilnik, da je treba v družbi nekaj spremeniti ali je to razlog, da tega sploh ne poskušamo popraviti in pustiti takšnega, kot je?

Artyom Goryachev