Takoj Veste, Da Je To Pornografija. Bo Računalnik Razumel? - Alternativni Pogled

Kazalo:

Takoj Veste, Da Je To Pornografija. Bo Računalnik Razumel? - Alternativni Pogled
Takoj Veste, Da Je To Pornografija. Bo Računalnik Razumel? - Alternativni Pogled

Video: Takoj Veste, Da Je To Pornografija. Bo Računalnik Razumel? - Alternativni Pogled

Video: Takoj Veste, Da Je To Pornografija. Bo Računalnik Razumel? - Alternativni Pogled
Video: CS50 2013 - Week 10 2024, Maj
Anonim

Tumblr je v začetku prejšnjega meseca napovedal, da bo prepovedal porniče. Ko je začela veljati nova vsebinska politika, je približno dva tedna pozneje - 17. decembra - postalo očitno, da bodo težave. Po uvedbi sistema umetne inteligence, ki naj bi prepovedal vso pornografijo na spletnem mestu, je napačno označil nedolžne objave v 455,4 milijona blogih na spletnem mestu med 168,2 milijarde objav: vaze, čarovnice, ribe in ves ta džez.

Pornografija za umetno inteligenco

Čeprav ni jasno, kateri avtomatski filter je Tumblr uporabil ali ustvaril svojega - podjetje se ni odzvalo na poizvedbe o tej temi - jasno je, da je socialno omrežje obtičalo med svojo politiko in tehnologijo. Na primer, nedosledno stališče spletnega mesta do "žensk, ki kažejo bradavice", in umetniška golota je privedlo do kontekstualnih odločitev, ki kažejo, da tudi Tumblr ne ve, kaj bi prepovedal na svoji platformi. Kako lahko pogosto podjetje ugotovi, kaj se mu zdi nespodobno?

Prvič, blokiranje tveganih vsebin je težko, saj je težko določiti, kaj je že na začetku. Opredelitev nespodobnosti je pasa medveda, stara več kot sto let, leta 1896 so ZDA prvič sprejele zakone, ki urejajo nespodobnost. Leta 1964 je vrhovno sodišče v Jacobellis proti Ohiou, o tem, ali bi Ohio lahko prepovedal prikazovanje filma o Louisu Malleu, izdalo tisto, kar je danes verjetno najbolj znana definicija hardcore pornografije: kolikor razumem, bo vključen v dobesedni opis; in tega morda nikoli ne bom zmogel razumeti, "je dejal sodnik Potter Stewart. "Vem pa, kaj je, ko ga vidim, filma, povezanega s tem primerom, pa ne."

Algoritmi strojnega učenja imajo enako težavo. To je ravno težava, ki jo poskuša rešiti Brian Delorge, izvršni direktor Picnixa, podjetja, ki prodaja specializirano tehnologijo umetne inteligence. Deris, eden od njihovih izdelkov, je aplikacija za odkrivanje pornografije, ki "pomaga ljudem", kot pravi Delorge, "ki v življenju ne želijo pornografije." Opaža, da je posebna težava s pornografijo ta, da je lahko karkoli, kup različnih stvari - in slike, ki niso pornografske, imajo lahko podobne elemente. Podoba zabave na plaži je morda blokirana ne zato, ker ima na sebi več kože kot pisarniška fotografija, temveč zato, ker je na robu. "Zato je zelo težko izučiti algoritem za prepoznavanje slike, da bi naredili vse naenkrat," pravi DeLorge."Ko človekova definicija postane težka, ima tudi računalnik težave." Če se ljudje ne morejo strinjati, kaj je porno in kaj ne, ali računalnik sploh upa, da bo ugotovil razliko?

Da bi se AI naučili zaznavati pornografijo, je prva stvar, ki jo morate storiti, da jo nahranite s porniči. Veliko pornografije. Kje ga lahko dobim? Prvo, kar ljudje naredijo, je, da kupijo kup vidov iz Pornhuba, XVideos, pravi Dan Shapiro, soustanovitelj Lemay.ai, zagona, ki ustvarja AI filtre za svoje stranke. "To je eno tistih sivih področij pravne narave - če se na primer učite iz vsebine drugih ljudi, ali pripada vam?"

Ko programerji prenesejo na tone pornografskih posnetkov, so iz videa izrezali ne-pornografske posnetke in se prepričali, da uporabljeni posnetki ne blokirajo fantov za dostavo pice. Platforme plačujejo ljudi, večinoma zunaj ZDA, za označevanje takšnih vsebin; delo je nizko plačano in dolgočasno, kot na primer vpis v captcha. Samo sedijo in ugotavljajo: to je porno, to je to. Morate malo filtrirati, ker vsi pornografski izdelki izhajajo z etiketo. Učenje je boljše, če uporabljate ne le fotografije, temveč velike vzorce podatkov.

Promocijski video:

"Pogosto pogosto ni treba filtrirati porničev, temveč spremljevalni material," pravi Shapiro. "Kot ponarejeni profili z dekliško fotografijo in telefonom." Govori o seksualnih delavcih, ki iščejo stranke, vendar je to lahko vse, kar ni povsem legalno. "To ni pornografija, ampak take stvari, ki jih nočete gledati na svoji platformi, kajne?" Dober avtomatizirani moderator se uči od milijonov - če ne več deset milijonov - vzorčnih vsebin, s čimer lahko prihranite na tone človeških ur.

"To lahko primerjate z razliko med otrokom in odraslim," pravi Matt Zeiler, izvršni direktor in ustanovitelj podjetja Clarifai, zagona računalniškega vida, ki tovrstno filtriranje slik izvaja za poslovne stranke. "Lahko vam zagotovo povem - pred nekaj meseci smo imeli otroka. O svetu ne vedo ničesar, vse je zanje novo. " Otroku morate pokazati (algoritem) veliko stvari, da nekaj razume. "Milijoni in milijoni primerov. Toda kot odrasli - ko smo ustvarili toliko konteksta o svetu in razumeli, kako deluje -, se lahko le nekaj primerov naučimo nekaj novega. " (Da, poučevanje AI za filtriranje vsebine za odrasle je kot prikaz otroku veliko pornografije.) Podjetja, kot je Clarifai, danes hitro rastejo. Imajo dobro bazo podatkov o svetu, znajo psom povedati mačke, oblečene od golih. Zeilerjevo podjetje uporablja svoje modele za usposabljanje novih algoritmov za svoje stranke - ker je prvotni model obdeloval veliko podatkov, prilagojene različice za delovanje potrebujejo le nove naloge podatkov.

Vendar je algoritem težko pravilno izbrati. Dobro se ujema z vsebino, ki je očitno pornografska; vendar lahko klasifikator napačno označi oglas za spodnje perilo kot izven meja, ker ima slika več usnja kot recimo pisarna. (Z bikiniji in spodnjim perilom je po Zeilerjevih besedah zelo težko). To pomeni, da bi se morali tržniki pri svojem delu osredotočiti na te primere, dajejo prednost težavam s klasifikacijo.

Kaj je najtežji del?

"Anime porno," pravi Zeiler. "Prva različica našega detektorja golote ni uporabila risane pornografije za izobraževanje." Mnogokrat se je AI zmotil, ker hentai ni prepoznal. "Po tem, ko smo delali za stranko, smo v model vbrizgali veliko njegovih podatkov in bistveno izboljšali natančnost filtra za risanke, hkrati pa ohranili natančnost resničnih fotografij," pravi Zeiler.

Tehnologijo, ki so jo naučili izdihniti porniče, je mogoče uporabiti tudi pri drugih stvareh. Tehnologije tega sistema so izjemno prilagodljive. To je več kot anime joške. Na primer, Jigsaw iz Abecede se pogosto uporablja kot samodejni moderator komentarjev v časopisu. Ta programska oprema deluje podobno kot klasifikatorji slik, le da razvršča po strupenosti in ne goloti. (Strupenost besedilnih komentarjev je tako težko določiti kot pornografija na slikah.) Facebook uporablja tovrstno samodejno filtriranje za odkrivanje samomorilskih sporočil in vsebin, povezanih s terorizmom, in to tehnologijo poskuša uporabiti za odkrivanje lažnih novic na svoji množični platformi.

Vse to je še vedno odvisno od človekovega nadzora; bolje ravnamo z dvoumnostjo in dvoumnim kontekstom. Zeiler pravi, da ne misli, da je njegov izdelek sprejel nikogar. Rešuje problem spletnega skaliranja. Ljudje bodo še vedno trenirali AI s sortiranjem in označevanjem vsebine, tako da ga bo AI lahko razlikoval.

To je prihodnost zmernosti: prilagojene rešitve na ključ, ki so na voljo podjetjem, ki opravljajo celoten posel, tako da vedno več naprednih klasifikatorjev poučijo več podatkov. Tako kot Stripe in Square ponujajo plačilne rešitve za podjetja, ki jih nočejo sami obdelati, bodo tudi startupi, kot so Clarifai, Picnix in Lemay.ai, izvajali spletno moderiranje.

Dan Shapiro iz Lemay.ai upa. "Kot pri vsaki tehnologiji je tudi to še vedno v postopku. Zato mislim, da se ne bomo vdali, če nam ne uspe. " Toda ali bo AI kdaj lahko deloval avtonomno brez človeškega nadzora? Nejasno. "Ni majhnega človeka v omarici, ki bi filtriral vsak strel," pravi. "Podatke morate dobiti od vsepovsod, če želite izuriti algoritem na njem."

Zeiler na drugi strani verjame, da bo nekega dne umetna inteligenca zmerila vse sama. Na koncu se bo število človeških posegov zmanjšalo na nič ali malo napora. Postopoma se bodo človeška prizadevanja spremenila v nekaj, česar AI zdaj ne more storiti, kot so razmišljanje na visoki ravni, samozavedanje - vse, kar imajo ljudje.

Priznavanje pornografije je del tega. Identifikacija je za človeka dokaj nepomembna naloga, vendar je veliko težje izučiti algoritem za prepoznavanje odtenkov. Določitev praga, ko filter označi sliko kot pornografsko ali ne pornografsko, je tudi težka naloga, delno matematična.

Umetna inteligenca je nepopolno ogledalo, kako vidimo svet, tako kot je pornografija odraz tega, kar se dogaja med ljudmi, ko so sami. V tem je nekaj resnice, vendar popolne slike ni.

Ilya Khel