Kako Nas Zaščititi Pred Umetno Inteligenco? - Alternativni Pogled

Kazalo:

Kako Nas Zaščititi Pred Umetno Inteligenco? - Alternativni Pogled
Kako Nas Zaščititi Pred Umetno Inteligenco? - Alternativni Pogled

Video: Kako Nas Zaščititi Pred Umetno Inteligenco? - Alternativni Pogled

Video: Kako Nas Zaščititi Pred Umetno Inteligenco? - Alternativni Pogled
Video: Жизнь после смерти | НОВАЯ ПЕРЕДАЧА 2024, September
Anonim

Ideja, da nas bo umetna inteligenca neizogibno pripeljala do scenarija, v katerem se stroji upirajo ljudem, je precej priljubljena. Umetna superinteligenca se zdi največja možna grožnja in fantastične zgodbe, po katerih nas v svetu, ki je v lasti tehnologije, ne bomo potrebovali, nikoli niso izgubile priljubljenosti.

Je to neizogibno?

Literarni in kinematografski prikaz inteligentnih računalniških sistemov iz šestdesetih let prejšnjega stoletja je pomagal oblikovati in povzeti naša pričakovanja za prihodnost, ko se bomo podali na pot ustvarjanja strojne inteligence, ki presega človeško inteligenco. AI je očitno že presegel človeka pri določenih specifičnih nalogah, ki zahtevajo zapletene izračune, vendar še vedno zaostaja v številnih drugih zmogljivostih. Kako hkrati povečati moč tega ostrega orodja in ohraniti svoj gospodarski položaj nad njim.

Ker umetna inteligenca že igra in bo imela tudi v prihodnosti veliko vlogo, je nujno preučiti naše možnosti sobivanja s temi zapletenimi tehnologijami.

Kevin Abosch, ustanovitelj podjetja Kwikdesk, podjetja za obdelavo podatkov in umetne inteligence, je delil svoja razmišljanja o tem. Verjame, da bi morala biti umetna inteligenca hitra, neopazna, zanesljiva, pismena in etična. Ja, etično.

Etični okvir

Promocijski video:

Koncept umetne nevronske mreže po vzoru biološke nevronske mreže ni nič novega. Enote računalniške moči, imenovane nevroni, se med seboj povežejo in tvorijo omrežje. Vsak nevron uporabi vhoden algoritem učenja na vhodu, pred prenosom podatkov na druge nevrone, dokler se nevron na izhodu ne aktivira in ne odpre možnosti za branje. Strokovni sistemi se zanašajo, da jih bodo ljudje "učili" in sadili seme znanja. Logični motorji iščejo tekme, izbirajo, postavljajo pravila if-this-then-potem v bazo znanja. V tem procesu se v bazo znanja doda novo znanje. Čista nevronska mreža se uči v procesu pridobivanja nelinearnih izkušenj, nima problema s tem, da bi strokovnjak sejal znanje. Hibridna omrežja so se izkazalaki izboljšujejo učne sposobnosti strojev.

Zdaj pa si oglejmo etična vprašanja takih sistemov. Dalje od prve osebe.

Image
Image

"Slaba koda" v primerjavi z dobro kodo

Avtor uporablja besede, da bralca potopi v izmišljeni svet in to počne na različne načine, a veliki avtorji to počnejo zelo graciozno. Programski inženir napiše vrstice kode, ki olajšajo obdelavo in gibanje podatkov. Tudi on lahko izbira med številnimi možnostmi na različne načine, a graciozni kodri so ljubitelji računalništva. Napredni koder se osredotoča na to, kako čim bolj in boljše zakleniti kratko in lepo kodo. Odvečna koda je omejena na minimum. Velika koda ohranja tudi okno odprto za prihodnje dodatke. Drugi inženirji lahko dodajo kodo s svojo prirojeno eleganco in izdelek se razvija brezhibno.

Vsak umetni izdelek temelji na nameri. Stvari, ki so jih naredili ljudje, so nasičene z nameni in so v takšni ali drugačni meri nosilci same narave stvarnika. Nekateri si težko predstavljajo neživi predmet te narave. Toda mnogi bi se strinjali s tem. Energija namenov obstaja že tisoč let, združuje, ločuje, združuje, preobraža družbo. Prav tako ne sme biti podcenjena moč jezika. Ne pozabite, da so vrstice kode napisane v določenem programskem jeziku. Tako sem prepričan, da je koda, ki postane programska oprema, ki se uporablja v računalnikih ali mobilnih napravah, zelo "živa".

Brez upoštevanja modrosti in duhovnosti v kontekstu računalništva in morebitnih posledic umetne inteligence lahko na statično kodo še vedno gledamo kot na eno samo enoto s potencialom »delati dobro« ali »delati zlo«. Ti izhodi se znajdejo samo v procesu uporabe aplikacij s strani ljudi. Jasne izbire ljudi vplivajo na naravo aplikacije. Ogledati si jih je mogoče v lokalnem sistemu, ki določajo pozitiven ali negativen vpliv na ta sistem, ali na podlagi nabora vnaprej določenih standardov. Vendar pa tako kot novinar ne more biti stoodstotno nepristranski v postopku pisanja članka, tako inženir voljno ali nehote doda kode v naravo svojih namenov. Nekateri bi lahko trdili, da je pisanje kode logičen postopek in realna logika naravi ne pušča prostora.

Prepričan pa sem, da je v trenutku, ko ustvarite pravilo, blok kode ali celotno kodo, vse prežeto z elementom človeške narave. Z vsakim dodatnim pravilom se penetracija vrste poglablja. Bolj zapletena je koda, več je te narave v njej. Zato se postavlja vprašanje: "Ali je narava kode lahko dobra ali zla?"

Očitno je virus, ki ga je razvil heker, ki v vašem življenju zlonamerno prebija obrambo računalnika in povzroča škodo, nasičen z zlobno naravo. Kaj pa virus, ki so ga ustvarili dobri fantje, da bi se infiltriral v računalnike teroristične organizacije, da bi preprečil teroristične napade? Kakšna je njegova narava? Tehnično bi bil lahko enak svojemu zloglasnemu kolegu, ki se uporablja samo za "dobre" namene. Je torej njegova narava prijazna? To je celoten etični paradoks zlonamerne programske opreme. A tega nismo mogli prezreti in razmišljali o »zlobnem« kodeksu.

Po mojem mnenju obstaja koda, ki sama po sebi gravitira k "zlu" in obstaja koda, ki je sama po sebi pristranska do dobre volje. To je bolj pomembno v okviru računalnikov brez povezave.

Image
Image

Na Kwikdesku razvijamo okvir AI in protokol, ki temelji na mojem hibridnem dizajnu sistema / nevronske mreže, ki najbolj spominja na biološki model. Nevroni se manifestirajo kot V / I moduli in virtualne naprave (v nekem smislu avtonomni agenti), povezani z "aksoni", varnimi, ločenimi kanali šifriranih podatkov. Ti podatki se dešifrirajo, ko vstopijo v nevron in se po določenih procesih šifrirajo, preden se pošljejo v naslednji nevron. Preden lahko nevroni medsebojno komunicirajo prek aksona, mora potekati izmenjava ključev med udeležencem in kanalom.

Verjamem, da je treba varnost in ločitev vgraditi v taka omrežja od najnižje ravni. Nadgradnje odražajo lastnosti njihovih najmanjših sestavnih delov, tako da vse, kar je manjše od varnih gradnikov, povzroči nevarno delovanje celotne linije. Zaradi tega morajo biti podatki lokalno zaščiteni in dešifrirani, če se prenesejo lokalno.

Izvajanje in jamstva

Kakovost našega življenja skupaj s stroji, ki so vse pametnejši in pametnejši, je razumljivo zaskrbljujoča in popolnoma prepričan sem, da moramo ukrepati, da bomo zagotovili zdravo prihodnost prihodnjim generacijam. Grožnje pametnim strojem so potencialno raznolike, vendar jih je mogoče razdeliti na naslednje kategorije:

Rezervacija. Na delovnih mestih bodo ljudi zamenjali stroji. Ta premik traja že desetletja in se bo le pospešil. Za pripravo ljudi na prihodnost, v kateri bodo sto milijonov tradicionalnih delovnih mest preprosto prenehale obstajati, je potrebna ustrezna izobrazba. Zapleteno je.

Varnost. V celoti se zanašamo na stroje in se bomo še naprej zanašali. Ko čedalje bolj zaupamo strojem, ko se premikamo z varnega območja na potencialno nevarno območje, se lahko srečamo s tveganjem napake stroja ali zlonamerne kode. Na primer pomislite na prevoz.

Zdravje. Osebne diagnostične naprave in mrežni medicinski podatki. AI se bo še naprej razvijala v preventivni medicini in množični analizi genetskih podatkov. Ponovno moramo imeti zagotovila, da ti stroji ne bodo sodelovali v zlonamerni subverziji ali nam kakorkoli škodovali.

Usoda. AI z vedno večjo natančnostjo napoveduje, kam boste šli in kaj boste počeli. Ko se bo to področje razvijalo, bo vedel, katere odločitve bomo sprejeli, kam bomo šli naslednji teden, katere izdelke bomo kupili ali celo ko bomo umrli. Ali želimo, da imajo drugi dostop do teh podatkov?

Znanje. Stroji dejansko zbirajo znanje. Če pa znanje pridobijo hitreje, kot ga lahko preizkusijo ljudje, kako lahko zaupamo njegovi celovitosti?

Na koncu želim opozoriti, da je buden in odgovoren pristop k AI za ublažitev morebitnih težav pri tehnološki eksploziji supernove. Bodisi bomo ukrotili potencial AI in ga molili, da bo človeštvu prinesel le najboljše, ali pa bomo izgoreli ob njegovem potencialu, ki se bo odražal najhujšega v nas.

Ilya Khel

Priporočena: