Izdelava Moralnega Stroja: Kdo Bo Odgovoren Za Etiko Lastnih Vozil? - Alternativni Pogled

Kazalo:

Izdelava Moralnega Stroja: Kdo Bo Odgovoren Za Etiko Lastnih Vozil? - Alternativni Pogled
Izdelava Moralnega Stroja: Kdo Bo Odgovoren Za Etiko Lastnih Vozil? - Alternativni Pogled

Video: Izdelava Moralnega Stroja: Kdo Bo Odgovoren Za Etiko Lastnih Vozil? - Alternativni Pogled

Video: Izdelava Moralnega Stroja: Kdo Bo Odgovoren Za Etiko Lastnih Vozil? - Alternativni Pogled
Video: Pogled na stare jeklene lepotce 2024, April
Anonim

Vozite se po avtocesti, ko moški steče na prometno cesto. Avtomobili se gibljejo okoli vas in imate le delček sekunde, da se odločite: ali se poskusite izogniti človeku in ustvarite tveganje za nesrečo? Še naprej voziti v upanju, da bo imel čas? Zavirati? Kako ocenjujete verjetnost, da bo otrok pripet na zadnjem sedežu? V mnogih pogledih je to klasična "moralna dilema" težava z vozički. Ima milijon različnih možnosti, ki vam omogočajo, da prepoznate človeške predsodke, a bistvo je isto.

Nahajate se v situaciji, ko sta ogrožena življenje in smrt, preproste izbire ni in vaša odločitev bo dejansko določila, kdo živi in kdo umre.

Dilema vozička in umetna inteligenca

Nov prispevek MIT, ki je bil objavljen prejšnji teden v reviji Nature, poskuša rešiti težavo z vozički z zaposlitvijo milijonov prostovoljcev. Eksperiment se je začel leta 2014 in bil uspešen, saj je prejel več kot 40 milijonov odgovorov iz 233 držav, zaradi česar je to ena največjih moralnih študij, kar jih je bilo kdaj izvedenih.

Človek lahko takšne odločitve nezavedno sprejema. Težko je pretehtati vse etične sisteme in moralne predpogoje, ko se vaš avto vozi po cesti. Toda v našem svetu odločitve vse pogosteje sprejemajo algoritmi in računalniki se zlahka odzovejo hitreje kot mi.

Hipotetične situacije s samovozečimi avtomobili niso edine moralne odločitve, ki jih morajo sprejeti algoritmi. Medicinski algoritmi bodo izbrali, kdo se zdravi z omejenimi sredstvi. Avtomatska brezpilotna letala bodo izbrala, koliko "stranske škode" je sprejemljivo v posameznem vojaškem poslu.

Promocijski video:

Niso vsa moralna načela enaka

"Rešitve" težave z vozički so tako raznolike kot same težave. Kako bodo stroji sprejemali moralne odločitve, če temelji moralnosti in etike niso splošno sprejeti in morda ne bodo imeli rešitev? Kdo lahko ugotovi, ali algoritem deluje pravilno ali ne?

Pristop k množičnemu izvajanju, ki so ga sprejeli znanstveniki družbe Moral Machine, je precej pragmatičen. Navsezadnje mora javnost sprejeti samovozeče avtomobile in mora sprejeti moralne temelje svojih odločitev. Ne bo dobro, če se bodo etiki ali odvetniki lotili rešitve, ki je za običajne voznike bodisi nesprejemljiva bodisi nesprejemljiva.

Rezultati vodijo do radovednega zaključka, da so moralne prioritete (in s tem tudi algoritmične odločitve, ki jih lahko sprejmejo ljudje) odvisne od tega, kje na svetu ste.

Najprej znanstveniki priznavajo, da je nemogoče vedeti pogostost ali naravo teh situacij v resničnem življenju. Ljudje, ki so bili udeleženi v nesreči, pogosto ne morejo povedati, kaj se je točno zgodilo, in vrsta možnih situacij izključuje preprosto razvrstitev. Zato je treba, da se težava zasledi, razčleniti na poenostavljene scenarije in iskati splošna moralna pravila in načela.

Ko opravite anketo, se vam prikaže trinajst vprašanj, za katera je potreben preprost odgovor da ali ne, s katerimi poskušate omejiti odgovore na devet dejavnikov.

Ali naj se avto zavije na drugi vozni pas ali se še naprej premika? Bi morali varčevati mlade, ne stare? Ženske ali moški? Živali ali ljudje? Bi morali poskusiti rešiti čim več življenj ali je en otrok "vreden" dveh starejših? Shranite potnike v avtomobilu, ne pešcev? Tisti, ki ne upoštevajo pravil, ali tisti, ki ne upoštevajo pravil? Bi morali rešiti ljudi, ki so fizično močnejši? Kaj pa ljudje z višjim socialnim statusom, na primer zdravniki ali poslovneži?

V tem ostrem hipotetičnem svetu mora nekdo umreti in na vsako od teh vprašanj boste odgovorili z različnimi stopnjami navdušenja. Vendar pa sprejemanje teh odločitev odkriva tudi globoko vkoreninjene kulturne norme in pristranskosti.

Obdelava velikega nabora podatkov, ki so ga raziskali znanstveniki, prinaša splošna pravila in tudi radovedne izjeme. Trije najbolj prevladujoči dejavniki, povprečno za celotno populacijo, so bili ta, da so vsi raje rešili več življenj kot manj, ljudje raje kot živali in mladi in ne stari.

Regionalne razlike

S temi točkami se lahko strinjate, a globlje kot boste razmišljali o njih, bolj bodo močni moralni zaključki. Več anketirancev se je odločilo rešiti zločinca nad mačko, na splošno pa so raje psa rešili nad zločincem. V svetovnem povprečju je starost ocenjena višje kot brezdomstvo, brezdomci pa so bili manj rešeni kot debeli ljudje.

In ta pravila niso bila univerzalna: anketiranci iz Francije, Združenega kraljestva in ZDA so imeli raje mlade, medtem ko so anketiranci iz Kitajske in Tajvana bili bolj pripravljeni rešiti starejše. Anketiranci z Japonske so raje rešili pešce pred potniki, na Kitajskem pa potnike raje kot pešce.

Raziskovalci so ugotovili, da bi lahko odzive po državah razvrstili v tri kategorije: "Zahod", predvsem Severna Amerika in Evropa, kjer morala v veliki meri temelji na krščanskem nauku; "Vzhod" - Japonska, Tajvan, Bližnji vzhod, kjer prevladujeta konfucianizem in islam; "Južne" države, vključno z Srednjo in Južno Ameriko, skupaj z močnim francoskim kulturnim vplivom. V južnem segmentu je močnejša prednost ženskega žrtvovanja kot kjer koli drugje. V vzhodnem segmentu je večja težnja po varčevanju mladih.

Filtriranje po različnih atributih anketirancev daje nešteto zanimivih možnosti. "Zelo religiozni" anketiranci verjetno ne bodo raje reševali živali, vendar tako verski kot nereligiozni anketiranci izražajo približno enako prednost pred reševanjem ljudi z visokim socialnim statusom (čeprav lahko rečemo, da je v nasprotju z nekaterimi verskimi nauki). Moški in ženske raje rešujejo ženske, vendar so moški do tega manj naklonjeni.

Neodgovorena vprašanja

Nihče ne trdi, da ta raziskava nekako "rešuje" vse te težke moralne težave. Avtorji študije ugotavljajo, da množično posredovanje spletnih podatkov vključuje pristranskost. Toda tudi pri veliki velikosti vzorca je bilo število vprašanj omejeno. Kaj pa, če se tveganja spremenijo, odvisno od vaše odločitve? Kaj pa, če algoritem lahko izračuna, da ste imeli le 50-odstotno možnost, da ubijete pešce, glede na hitrost, s katero ste se premikali?

Edmond Awad, eden od avtorjev študije, je izrazil previdnost pri pretiranem interpretaciji rezultatov. Razprava bi se po njegovem mnenju morala preliti v analizo tveganja - kdo je bolj ali manj ogrožen - namesto da bi se odločili, kdo umre in kdo ne.

Toda najpomembnejši rezultat študije je bila razprava, ki je izbruhnila na njenih tleh. Ko algoritmi začnejo sprejemati vse pomembnejše odločitve, ki vplivajo na življenje ljudi, je nujno, da se vseskozi pogovarjamo o etiki AI. Oblikovanje "umetne vesti" mora vsebovati mnenje vseh. Medtem ko odgovorov ni vedno enostavno najti, je najbolje, da poskusite oblikovati moralni okvir za algoritme, tako da algoritmom ne dovolite, da bi sami oblikovali svet brez človeškega nadzora.