Umetna Inteligenca Lahko Samostojno Razvije Predsodke - Alternativni Pogled

Umetna Inteligenca Lahko Samostojno Razvije Predsodke - Alternativni Pogled
Umetna Inteligenca Lahko Samostojno Razvije Predsodke - Alternativni Pogled
Anonim

Nova študija je pokazala, da izražanje predsodkov do drugih ne zahteva posebne inteligence in se lahko zlahka razvije v umetno inteligentnih strojih.

Psihologi in strokovnjaki za informacijsko tehnologijo na Univerzi v Cardiffu in MIT so pokazali, da lahko skupine avtonomnih strojev kažejo pristranskosti, tako da preprosto opredelijo takšno vedenje, ga kopirajo in medsebojno učijo.

Morda se zdi, da so predsodki izključno človeški pojav, ki od človeške inteligence zahteva oblikovanje mnenj ali stereotipov o osebi ali skupini. Medtem ko so nekatere vrste računalniških algoritmov že pokazale pristranskosti, kot sta rasizem in seksizem, ki temeljijo na preučevanju javnih zapisov in drugih človeško ustvarjenih podatkov, novo delo kaže sposobnost AI, da samorazvija pristranske skupine.

Raziskava je objavljena v Science Reports. Temelji na računalniških simulacijah, kako pristranski virtualni agenti lahko tvorijo skupine in medsebojno komunicirajo. Med simulacijo se vsak posameznik sam odloči, ali bo pomagal nekomu iz svoje skupine ali drugega, odvisno od ugleda tega posameznika, pa tudi lastne strategije, ki vključuje raven predsodkov do tujcev. Po izvedbi tisoč simulacij se vsak posameznik nauči novih strategij s kopiranjem drugih - ne glede na to, ali so člani svoje skupine ali celotne "populacije".

Relativna kumulativna pogostost lastnosti agentov glede na stopnjo predsodkov / Roger M. Whitaker
Relativna kumulativna pogostost lastnosti agentov glede na stopnjo predsodkov / Roger M. Whitaker

Relativna kumulativna pogostost lastnosti agentov glede na stopnjo predsodkov / Roger M. Whitaker.

"Potem ko smo tisoče in tisočkrat zapored izvajali te simulacije, smo začeli razumeti, kako se pristranskost razvija in kakšni pogoji so potrebni za gojenje ali preprečevanje," je dejal soavtor študije profesor Roger Whitaker z Inštituta za raziskave kriminala in varnosti in Šole za računalništvo in računalništvo na Cardiff University. „Naše simulacije kažejo, da je pristranskost močna sila narave, z evolucijo pa jo je mogoče spodbuditi v navideznem prebivalstvu, da škodi širši povezavi z drugimi. Zaščita pred skupinami, ki posegajo v predsodke, lahko nenamerno privede do oblikovanja drugih predsodkovnih skupin, kar povzroči večjo delitev prebivalstva. Tako razširjene predsodke je težko razveljaviti."

Podatki raziskave vključujejo tudi posameznike, ki povečajo raven pristranskosti s prednostnim kopiranjem tistih, ki dobijo najboljše kratkoročne rezultate, kar posledično pomeni, da take odločitve ne potrebujejo nujno posebnih sposobnosti.

"Povsem verjetno je, da bodo avtonomni stroji, ki se lahko poistovetijo z diskriminacijo in kopirajo druge, v prihodnosti dovzetni za pojave predsodkov, ki jih vidimo v družbi," nadaljuje profesor Whitaker. "Številni dogodki AI, ki jih vidimo danes, vključujejo avtonomijo in samokontrolo, torej na vedenje naprav vplivajo tudi tisti, ki so okoli njih. Nedavni primeri vključujejo prevoz in internet stvari. Naša raziskava ponuja teoretični vpogled v to, kje se simulirani agenti občasno obrnejo na druge za vire."

Promocijski video:

Raziskovalci so tudi ugotovili, da je pod določenimi pogoji, vključno s prisotnostjo bolj razdeljenih podpopulacij iste družbe, pristranskost težje okrepiti.

"Z velikim številom podpopulacij lahko nepristranski skupinski sindikati sodelujejo, ne da bi jih izkoristili. Prav tako zmanjšuje njihov manjšinski status, hkrati pa zmanjšuje njihovo dovzetnost za vzpostavitev pristranskosti. Vendar pa to zahteva tudi okoliščine, v katerih so povzročitelji ugodneje razporejeni do interakcij zunaj svoje skupine, "je zaključil profesor Whitaker.

Vladimir Guillen