Umetna Inteligenca Se Je Naučila Videti Mrežne Poteze - Alternativni Pogled

Umetna Inteligenca Se Je Naučila Videti Mrežne Poteze - Alternativni Pogled
Umetna Inteligenca Se Je Naučila Videti Mrežne Poteze - Alternativni Pogled

Video: Umetna Inteligenca Se Je Naučila Videti Mrežne Poteze - Alternativni Pogled

Video: Umetna Inteligenca Se Je Naučila Videti Mrežne Poteze - Alternativni Pogled
Video: Razvoj umetne inteligence in načini strojnega učenja (Dr. Boris Cergol) — AIDEA Podkast #10 2024, Maj
Anonim

Umetna inteligenca je prebrala agresivne komentarje uporabnikov Reddita in razumela, kako govorijo ljudje, ki sovražijo druge ljudi. Težje ga je zavajati kot običajnega moderatorja bot.

Internet je naseljen z debelimi in tankimi troli in zgolj nesramnimi ljudmi, ki jim besede ne gredo v žep. Ročno urejanje interneta je težko in nehvaležno delo. Boti, programirani za iskanje besed s "prepovedanega seznama", delajo bolje, vendar ne morejo vedeti, kdaj je kavstičen komentar s kodnimi besedami neškodljiva šala in kdaj gre za zlobni verbalni napad.

Raziskovalci iz Kanade so učili umetno inteligenco, kako razlikovati nesramne šale od škodljivih šal in tisto, kar sociologi imenujejo "sovražni govor".

Dana Wormsley, ena od ustvarjalk AI, ugotavlja, da je "sovražni govor" težko formalizirati. Dejansko se uradno žaljive besede lahko uporabljajo tako z ironijo kot v blažjih pomenih; le nekatera besedila, ki vsebujejo take besede, resno spodbujajo in ponižujejo. Ne bomo navajali primerov, ker vladne organizacije, ki v Rusiji urejajo internet, še nimajo umetne inteligence).

Nevronska mreža je bila usposobljena na vzorcih izjav članov skupnosti, znanih po svoji sovražnosti do različnih skupin prebivalstva. Nevronska mreža se je naučila iz objav spletnega mesta Reddit - platforme, kjer najdete najrazličnejše interesne skupine, od aktivistov za državljanske pravice do radikalnih mizoginistov. Besedila, ki so bila naložena v sistem, najpogosteje užalijo Afroameričane, ljudi s prekomerno težo in ženske.

Nevronska mreža, usposobljena na ta način, je dala manj lažnih pozitivnih rezultatov kot programi, ki določajo "sovražni govor" po ključnih besedah. Sistem je ujel rasizem, kjer sploh ni bilo kazalnih besed. A kljub dobri uspešnosti ustvarjalci AI moderatorja niso prepričani, da bo njihov razvoj široko uporabljen. Doslej je na Redditu uspešno našla sovražni govor, a ali bo to zmogla storiti tudi na Facebooku in drugih platformah, ni znano. Poleg tega je sistem nepopoln, včasih izpusti številne očitno nesramne rasistične izjave, ki jih iskalnik ključnih besed ne bi izpustil. Edini, ki zna razlikovati žalitev od nedolžne šale, medtem ko oseba ostane.