Zakaj Je Umetna Inteligenca Presojanje Zločincev Nevarna? - Alternativni Pogled

Kazalo:

Zakaj Je Umetna Inteligenca Presojanje Zločincev Nevarna? - Alternativni Pogled
Zakaj Je Umetna Inteligenca Presojanje Zločincev Nevarna? - Alternativni Pogled

Video: Zakaj Je Umetna Inteligenca Presojanje Zločincev Nevarna? - Alternativni Pogled

Video: Zakaj Je Umetna Inteligenca Presojanje Zločincev Nevarna? - Alternativni Pogled
Video: ЗНАМЕНИЕ 2024, Maj
Anonim

Umetna inteligenca že na nek način pomaga določiti vašo prihodnost. Ko v iskalniku iščete nekaj, uporabite storitev, kot je Netflix, ali banka oceni primernost vaše hipoteke. Kaj pa se zgodi, če mora umetna inteligenca na sodišču ugotoviti, ali ste krivi ali ne? Nenavadno je, da se v nekaterih državah to morda že dogaja. Pred kratkim so ameriškega vrhovnega sodnika Johna Robertsa vprašali, ali si lahko predstavlja dan, ko bodo "pametni stroji, ki jih nadzoruje umetna inteligenca, pomagali pri iskanju dokazov ali celo pri sprejemanju sodnih odločitev." Odgovoril je: "Ta dan je že prišel in pravosodnim organom bistveno pomaga v postopkih."

Morda se je Roberts skliceval na nedavni primer Erica Loomisa, ki je bil na priporočilo tajne lastniške programske opreme zasebnega podjetja obsojen na šest let zapora. Loomis, ki je že imel zgodovino kaznivih dejanj in je bil obsojen, ker je pred ukradenim avtomobilom pobegnil pred policijo, zdaj trdi, da mu je bila kršena pravica do postopka, saj niti on niti njegovi predstavniki niso mogli pregledati ali izpodbijati algoritma priporočil.

Poročilo je pripravila programska oprema Compas, ki jo Notrpointe prodaja ladjam. Program vključuje nov trend v raziskavah umetne inteligence: pomoč sodnikom pri sprejemanju "boljših" (ali vsaj bolj podatkovnih) odločitev na sodišču.

Konkretne podrobnosti primera Loomis ostajajo zaprte, vsekakor pa vsebuje karte in številke, ki opredeljujejo Loomisovo življenje, vedenje in verjetnost ponovitve. Sem spadajo starost, rasa, spolna identiteta, navade, zgodovina brskalnika in nekatere meritve lobanje. Nihče natančneje ne ve.

Znano je, da je tožilec v sodbi sodniku dejal, da je Loomis dokazal "veliko tveganje za ponovitev, nasilje in predobravnavni postopek." To je standard pri izreku kazni. Sodnik se je strinjal in Loomisu povedal, da ga je "Compas označil za osebo z velikim tveganjem za družbo."

Vrhovno sodišče v Wisconsinu je Loomisa obsodilo in dodalo, da je poročilo Compasa k njegovi odločitvi dodalo dragocene podatke, vendar je ugotovilo, da je brez njega izrekel enako kazen. Seveda tega zagotovo ne boste mogli preveriti. Kakšne kognitivne pristranskosti lahko obstajajo, ko vsemogočni "pametni" sistem, kot je Compas, sodeluje pri svetovanju sodnikom, kaj storiti?

Neznana uporaba

Promocijski video:

Bodimo iskreni, v tem, kar je storilo sodišče v Wisconsinu, ni ničesar "nezakonitega" - to je le primer. Druga sodišča lahko in bodo storila enako.

Na žalost ne vemo, v kolikšni meri se AI in drugi algoritmi uporabljajo pri izreku kazni. Menijo, da nekatera sodišča sisteme, kot je Compas, "preizkušajo" v zaprtih postopkih, vendar ne morejo zahtevati partnerstva. Obstaja tudi mnenje, da več start-upov AI razvija takšne pametne sisteme.

Image
Image

Vendar se uporaba umetne inteligence v zakonodaji ne začne ali konča s stavkom, začne se s preiskavo. Združeno kraljestvo je že razvilo sistem VALCRI, ki v nekaj sekundah opravi dolgotrajno analitično delo - prikrade se skozi tone podatkov, kot so besedila, laboratorijska poročila in policijski dokumenti, da bi izoliral stvari, ki bi lahko zahtevale nadaljnjo preiskavo.

Britanska policija West Midlands bo v naslednjih treh letih testirala VALCRI z uporabo anonimnih podatkov, ki vsebujejo več kot 6,5 milijona zapisov. Podoben test izvaja policija v Antwerpnu v Belgiji. V preteklosti pa so bili problemi z umetno inteligenco in projekti globokega učenja, ki vključujejo obsežne nabore podatkov.

Koristi za redke

Tehnologija je sodnim dvoranam zagotovila veliko uporabnih pripomočkov, od kopirnih strojev do odvzema DNK iz prstnih odtisov do izpopolnjenih nadzornih tehnik. Toda to ne pomeni, da je katera koli tehnologija izboljšava.

Čeprav uporaba umetne inteligence v preiskavah in obsodbah lahko prihrani čas in denar, predstavlja akutne težave. Poročilo podjetja Compas iz ProPublice je jasno pokazalo, da je program napačno menil, da so črnci bolj recidivisti kot belci. Tudi najbolj izpopolnjeni sistemi umetne inteligence lahko podedujejo rasne in spolne pristranskosti tistih, ki jih ustvarjajo.

Poleg tega, v čem je smisel prenašanja odločitev (vsaj delno) o vprašanjih, ki so edinstvena za ljudi, na algoritem? V ZDA obstajajo določene težave, ko žirije preizkušajo svoje vrstnike. Pravni standardi še nikoli niso bili merilo, zato ta porotna obravnava velja za najbolj demokratičen in učinkovit sistem obsodb. Napake delamo, vendar sčasoma naberemo znanje, kako jih ne narediti, in dodelamo sistem.

Kompasi in podobni sistemi predstavljajo črno polje v pravnem sistemu. Takih ne bi smelo biti. Pravni sistemi so odvisni od kontinuitete, preglednosti informacij in zmožnosti pregleda. Družba ne želi sistema, ki bi spodbujal dirko za gradnjo start-upov z umetno inteligenco, ki omogočajo hitre, poceni in ekskluzivne rešitve. Na hitro narejena umetna inteligenca bo strašna.

Posodobljena odprtokodna različica Compasa bi bila izboljšava. Najprej pa je treba dvigniti standarde pravosodnega sistema, preden začnemo odgovornost prelagati v korist algoritmov.

ILYA KHEL