Moralni Stroj: Inženirji So Umetno Inteligenco Obdarili Z Moralo In Etiko - Alternativni Pogled

Kazalo:

Moralni Stroj: Inženirji So Umetno Inteligenco Obdarili Z Moralo In Etiko - Alternativni Pogled
Moralni Stroj: Inženirji So Umetno Inteligenco Obdarili Z Moralo In Etiko - Alternativni Pogled

Video: Moralni Stroj: Inženirji So Umetno Inteligenco Obdarili Z Moralo In Etiko - Alternativni Pogled

Video: Moralni Stroj: Inženirji So Umetno Inteligenco Obdarili Z Moralo In Etiko - Alternativni Pogled
Video: Атлантида. Элита в поисках Бессмертия 2024, Maj
Anonim

Močneje kot umetna inteligenca vstopa v naše vsakdanje življenje, pogosteje se mora soočati z zapletenimi moralnimi in etičnimi dilemami, ki jih včasih živ živ človek ni tako enostavno rešiti. Znanstveniki z MIT-a so poskušali rešiti ta problem in stroj obdarili s sposobnostjo razmišljanja v smislu morale, ki temelji na mnenju večine živih ljudi.

Nekateri strokovnjaki menijo, da je najboljši način za usposabljanje umetne inteligence za obvladovanje moralno težkih situacij uporaba "izkušenj množic". Drugi trdijo, da ta pristop ni brez pristranskosti, različni algoritmi pa lahko prihajajo do različnih zaključkov iz istega niza podatkov. Kako so lahko stroji v takšni situaciji, ki bodo pri delu z resničnimi ljudmi očitno morali sprejeti težke moralne in etične odločitve?

Intelekt in morala

Ko se sistemi umetne inteligence (AI) razvijajo, strokovnjaki vse bolj poskušajo rešiti problem, kako najbolje dati sistemu etično in moralno podlago za izvajanje določenih dejanj. Najbolj priljubljena ideja je, da umetna inteligenca sklepa s preučevanjem človeških odločitev. Za preizkus te predpostavke so raziskovalci na Massachusetts Institute of Technology ustvarili Moral Machine. Obiskovalce spletnega mesta so prosili, naj se odločijo, kaj naj naredi avtonomno vozilo, ko se soočajo s precej težko izbiro. To je na primer znana dilema o morebitni nesreči, ki ima samo dve možnosti za razvoj dogodkov: avto lahko trči tri odrasle osebe, da reši življenje dveh otrok, ali pa nasprotno. Katero možnost bi morali izbrati? In ali je na primer mogočežrtvovati življenje starejše osebe, da bi rešila nosečnico?

Kot rezultat je algoritem zbral ogromno bazo rezultatov testov, Ariel Procaccia z oddelka za računalništvo na univerzi Carnegie Mellon pa se je odločil, da jih bo uporabil za izboljšanje strojne inteligence. V novi študiji sta skupaj z enim od ustvarjalcev projekta Iyadom Rahwanom v AI naložila celotno bazo projekta Moral Machine in sistem pozvala, naj napove, kako se bo avto na avtopilotu odzval na podobne, a še vedno nekoliko drugačne scenarije. Procaccia je želel pokazati, kako je sistem, ki temelji na glasovanju, lahko rešitev za "etično" umetno inteligenco. "Avtor dela sam priznava, da je tak sistem seveda še prezgodaj za uporabo v praksi, vendar odlično dokazuje sam koncept, da je mogoče.

Križna morala

Promocijski video:

Sama ideja izbire med dvema moralno negativnima rezultatoma ni nova. Etika zanjo uporablja ločen izraz: načelo dvojnega učinka. Toda to je področje bioetike, vendar še nihče ni uporabil takšnega sistema za avtomobil, zato je študija vzbudila posebno zanimanje strokovnjakov po vsem svetu. Sopredsednik OpenAI Elon Musk meni, da je ustvarjanje "etične" umetne inteligence stvar razvijanja jasnih smernic ali politik, ki bodo vodile razvoj programov. Politiki ga postopoma poslušajo: Nemčija je na primer ustvarila prva etična načela za avtonomne avtomobile na svetu. Tudi Googlova abeceda AI DeepMind ima zdaj oddelek za etiko in javno moralo.

Drugi strokovnjaki, vključno z ekipo raziskovalcev z univerze Duke, menijo, da je najboljši način za napredovanje ustvariti "splošni okvir", ki opisuje, kako bo umetna inteligenca sprejemala etične odločitve v dani situaciji. Verjamejo, da bo poenotenje kolektivnih moralnih pogledov, kot v istem Moralnem stroju, v prihodnosti umetno inteligenco postalo še bolj moralno kot sodobna človeška družba.

Kritika "moralnega stroja"

Kakor koli že, načelo "mnenja večine" trenutno še zdaleč ni zanesljivo. Na primer, ena skupina vprašanih ima lahko pristranskosti, ki niso skupne vsem drugim. Rezultat tega bo, da lahko umetni inteligenci, ki imajo popolnoma enak nabor podatkov, na podlagi različnih vzorcev teh informacij sprejmejo različne sklepe.

Za profesorja Jamesa Grimmelmanna, ki je specializiran za dinamiko med programsko opremo, bogastvom in močjo, je sama ideja javne morale videti napačna. "Ni sposoben poučevati etike umetne inteligence, ampak jo le obdariti z videzom etičnih standardov, značilnih za določen del prebivalstva," pravi. In sam Procaccia, kot že omenjeno, priznava, da njihove raziskave niso nič drugega kot uspešen dokaz koncepta. Prepričan pa je, da bi tak pristop lahko prinesel uspeh celotni kampanji za ustvarjanje visoko moralne umetne inteligence v prihodnosti. "Demokracija ima nedvomno številne pomanjkljivosti, vendar kot enoten sistem deluje - četudi nekateri še vedno sprejemajo odločitve, s katerimi se večina ne strinja."

Vasilij Makarov