Ljudje Ne Zaupajo Umetni Inteligenci. Kako To Popraviti? - Alternativni Pogled

Kazalo:

Ljudje Ne Zaupajo Umetni Inteligenci. Kako To Popraviti? - Alternativni Pogled
Ljudje Ne Zaupajo Umetni Inteligenci. Kako To Popraviti? - Alternativni Pogled

Video: Ljudje Ne Zaupajo Umetni Inteligenci. Kako To Popraviti? - Alternativni Pogled

Video: Ljudje Ne Zaupajo Umetni Inteligenci. Kako To Popraviti? - Alternativni Pogled
Video: 'Prvi put' sa novim partnerom: Kada je vreme? 2024, Maj
Anonim

Umetna inteligenca že lahko napove prihodnost. Policija z njim sestavi zemljevid, ki prikazuje, kdaj in kje se lahko zgodi zločin. Zdravniki ga uporabljajo za napovedovanje, kdaj ima lahko bolnik možgansko kap ali srčni napad. Znanstveniki celo poskušajo umetni inteligenci dati domišljijo, da lahko predvideva nepričakovane dogodke.

Številne odločitve v našem življenju zahtevajo dobre napovedi in agenti umetne inteligence so skoraj vedno boljši od njih kot ljudje. Kljub vsemu tehnološkemu napredku pa nam še vedno primanjkuje zaupanja v napovedi, ki jih ponuja umetna inteligenca. Ljudje se niso vajeni zanašati na umetno inteligenco in raje zaupajo človeškim strokovnjakom, četudi se ti strokovnjaki motijo.

Image
Image

Če želimo, da umetna inteligenca koristi ljudem, se ji moramo naučiti zaupati. Da bi to naredili, moramo razumeti, zakaj ljudje tako vztrajno zavračajo zaupanje v umetno inteligenco.

Zaupajte dr. Robot

IBM-ov poskus, da bi onkologom predstavil superračunalniški program (Watson za onkologijo), ni uspel. AI se je zavezala, da bo zagotovila visokokakovostna priporočila za zdravljenje 12 vrst raka, kar predstavlja 80% primerov na svetu. Do danes je več kot 14.000 bolnikov dobilo priporočila na podlagi njegovih izračunov.

Toda ko so se zdravniki prvič srečali z Watsonom, so se znašli v precej težkem položaju. Po eni strani, medtem ko je Watson zagotavljal smernice za zdravljenje, ki so bile skladne z njihovimi lastnimi mnenji, medicinska stroka v priporočilih AI ni videla velike vrednosti. Superračunalnik jim je preprosto povedal, kar so že vedeli, in ta priporočila niso spremenila dejanskega zdravljenja. To je zdravnikom morda dalo mir in zaupanje v lastne odločitve. Toda IBM še ni dokazal, da Watson dejansko povečuje stopnjo preživetja raka.

Promocijski video:

Image
Image

Če pa je Watson dajal priporočila, ki so bila v nasprotju s strokovnim mnenjem, so zdravniki ugotovili, da je Watson nesposoben. In stroj ni mogel razložiti, zakaj bi njegovo zdravljenje delovalo, ker so bili njegovi algoritmi strojnega učenja preveč zapleteni, da bi jih ljudje razumeli. V skladu s tem je to povzročilo še večje nezaupanje in številni zdravniki so preprosto prezrli priporočila AI in se opirali na lastne izkušnje.

Posledično je glavni zdravstveni partner IBM Watson, MD Anderson Cancer Center, pred kratkim sporočil, da program odpoveduje. Danska bolnišnica je tudi dejala, da opušča program, potem ko je odkrila, da se onkologi dvakrat od treh niso strinjali z Watsonom.

Težava pri onkologiji Watson je bila v tem, da mu zdravniki preprosto niso zaupali. Zaupanje ljudi je pogosto odvisno od našega razumevanja, kako razmišljajo drugi, in lastnih izkušenj, kar krepi zaupanje v njihovo mnenje. To ustvarja psihološki občutek varnosti. AI pa je razmeroma nov in človeku nerazumljiv. Odloča se na podlagi izpopolnjenega sistema za analizo, da prepozna morebitne skrite vzorce in šibke signale iz velikih količin podatkov.

Četudi je to mogoče razložiti s tehničnega vidika, je postopek odločanja o umetni inteligenci običajno preveč zapleten, da bi ga večina ljudi razumela. Interakcija z nečim, česar ne razumemo, lahko povzroči tesnobo in ustvari občutek izgube nadzora. Mnogi ljudje preprosto ne razumejo, kako in s čim deluje AI, ker se to zgodi nekje za zaslonom, v ozadju.

Iz istega razloga se bolj natančno zavedajo primerov, ko se umetna inteligenca moti: pomislite na Googlov algoritem, ki barvne ljudi uvršča med gorile; Microsoftov klepetalnik, ki je nacističen v manj kot enem dnevu; Vozilo Tesla v načinu avtopilota, ki je povzročilo smrtno nesrečo. Ti nesrečni primeri so bili deležni nesorazmerne medijske pozornosti in poudarjali agendo, da se ne moremo zanašati na tehnologijo. Strojno učenje ni 100% zanesljivo, deloma tudi zato, ker ga ljudje načrtujejo.

Razkol v družbi?

Občutki, ki jih vzbuja umetna inteligenca, segajo globoko v naravo človeka. Znanstveniki so pred kratkim izvedli eksperiment, v katerem so anketirali ljudi, ki so gledali filme o umetni inteligenci (fantaziji) na temo avtomatizacije v vsakdanjem življenju. Izkazalo se je, da ne glede na to, ali je bil umetni inteligenc prikazan pozitivno ali negativno, preprosto gledanje kinematografske predstavitve naše tehnološke prihodnosti polarizira stališča udeležencev. Optimisti postanejo še bolj optimistični, skeptiki pa se še bolj zaprejo.

To kaže na to, da so ljudje pristranski do umetne inteligence na podlagi lastnega argumentiranja, globoko zasidrane tendence potrditvene pristranskosti: težnje k iskanju ali interpretaciji informacij na način, ki potrjuje že obstoječe koncepte. Ker se umetna inteligenca vse pogosteje pojavlja v medijih, lahko prispeva k globokim delitvam v družbi, do razkola med tistimi, ki jo uporabljajo, in tistimi, ki jo zavračajo. Prevladujoča skupina ljudi ima lahko veliko prednost ali hendikep.

Trije izhodi iz krize zaupanja v umetno inteligenco

Na srečo imamo nekaj razmišljanj o tem, kako ravnati z zaupanjem v umetno inteligenco. Samo izkušnje z umetno inteligenco lahko bistveno izboljšajo odnos ljudi do te tehnologije. Obstajajo tudi dokazi, da bolj kot pogosto uporabljate določene tehnologije (na primer internet), bolj jim zaupate.

Druga rešitev bi lahko bila odpreti črno polje algoritmov strojnega učenja in omogočiti njihovo bolj transparentno delovanje. Podjetja, kot so Google, Airbnb in Twitter, že objavljajo poročila o preglednosti vladnih poizvedb in razkritij. Tovrstna praksa v sistemih umetne inteligence bo ljudem pomagala pridobiti potrebno razumevanje, kako algoritmi sprejemajo odločitve.

Raziskave kažejo, da bo vključevanje ljudi v odločanje o umetni inteligenci povečalo tudi zaupanje in omogočilo umetni inteligenci, da se uči iz človeških izkušenj. Študija je pokazala, da so se ljudje, ki so dobili priložnost nekoliko spremeniti algoritem, počutili bolj zadovoljni z rezultati njegovega dela, najverjetneje zaradi občutka superiornosti in zmožnosti vplivanja na prihodnje rezultate.

Ni nam treba razumeti zapletenega notranjega delovanja sistemov umetne inteligence, če pa ljudem damo vsaj malo informacij in nadzor nad izvajanjem teh sistemov, bodo imeli več samozavesti in želje po sprejetju umetne inteligence v svojem vsakdanjem življenju.

Ilya Khel

Priporočena: