Umetna Inteligenca Se Je Izkazala Za Rasistično - Alternativni Pogled

Umetna Inteligenca Se Je Izkazala Za Rasistično - Alternativni Pogled
Umetna Inteligenca Se Je Izkazala Za Rasistično - Alternativni Pogled

Video: Umetna Inteligenca Se Je Izkazala Za Rasistično - Alternativni Pogled

Video: Umetna Inteligenca Se Je Izkazala Za Rasistično - Alternativni Pogled
Video: Grounded 2018 / Primož Krašovec, Muanis Sinanović / Umetna inteligenca in vzpon fašizma 2024, April
Anonim

Študija znanstvenikov s tehnološkega inštituta v Massachusettsu je razkrila podrobnosti postopka analize podatkov z umetno inteligenco, ki jo pri odločanju pogosto vodijo seksistični in rasistični stereotipi. Več sistemov, ki so sodelovali v poskusu, je pokazalo dovzetnost za človekove predsodke.

Britanski časnik "Daily Mail" piše, da se je ekipa znanstvenikov po prejemu rezultatov študije lotila reprogramiranja umetne inteligence in tako odpravila prejšnje težave. Po besedah Irene Chen, ki deluje na Massachusetts Institute of Technology, se računalniški znanstveniki nagibajo k ugotovitvi, da je edini način za odpravo elementov rasizma in seksizma v algoritmih umetne inteligence izboljšanje programske kode. Kakovost algoritmov je sorazmerna s podatki, s katerimi delujejo. Raziskave Chena z Davidom Sontagom in Fredrikom D. Johannsonom kažejo, da lahko več razpoložljivih podatkov korenito spremeni stvari na bolje.

V enem poskusu je ekipa pregledala sistem, ki je napovedoval dohodek osebe na podlagi razpoložljivih informacij. Analiza je pokazala, da je algoritem v 50% primerov nagnjen k napovedovanju, da bo dohodek ženske v povprečju manjši od moškega. Znanstveniki so s povečanjem količine razpoložljivih podatkov 10-krat povečali, da se je faktor take napake zmanjšal za 40%.

Še več, v študiji sistema, ki se uporablja v bolnišnicah in napoveduje preživetje bolnikov, ki so bili deležni hudih operativnih posegov, je bila natančnost napovedi za mongloidno raso precej nižja kot za kavkaške in negroide. Vendar znanstveniki trdijo, da lahko uporaba napredne tehnike analize znatno zmanjša natančnost napovedi za bolnike, ki ne pripadajo mongolski rasi. To kaže, da več razpoložljivih podatkov morda ne vedno popravi napak algoritma. Namesto tega bi morali znanstveniki dobiti več informacij o diskriminiranih skupinah.

Nova metoda za raziskovalce strojnega učenja postavlja drugo vprašanje, kako učinkovito analizirati podatke brez obstoječe diskriminacije.

Kako deluje strojno učenje v sistemih z AI?

Sistemi umetne inteligence temeljijo na umetnih nevronskih mrežah (ANN), ki ekstrapolirajo tehnike shranjevanja in učenja informacij, ki jih človeški možgani uporabljajo v mehanskih sistemih. ANN usposabljajo za iskanje vzorcev v razpoložljivih virih informacij, vključno z govorom, besedilom in slikami. Izboljšanje natančnosti analize podatkov je eden temeljnih pogojev za najnovejši razvoj umetne inteligence.

"Normalna" umetna inteligenca uporablja vhodne podatke, da algoritmu pove podatke o predmetu analize, medtem ko deluje z ogromno količino informacij.

Promocijski video:

Praktične aplikacije strojnega učenja vključujejo Googlove prevajalske storitve, prepoznavanje obrazov na Facebookovih fotografijah in filtre na Snapchatu, ki skenirajo obraze, preden na spletu uporabijo vizualne učinke.

Postopek vnosa podatkov je pogosto zamuden in je običajno omejen s pretokom informacij o enem vidiku predmeta, ki se preučuje. Nova vrsta ANN - generativna adversarialna nevronska mreža - nasprotuje zmožnostjo dveh različnih robotov z umetno inteligenco naenkrat, kar izzove manj inteligenten sistem za učenje na račun drugega brez človekove udeležbe. Ta tehnika drastično izboljšuje učinkovitost in hitrost strojnega učenja, hkrati pa poveča kakovost analize podatkov.

Oliy Kurilov