Google Ne želi Ustvariti Skyneta Nekega Dne, Zato Ustvarja Stikalo Za AI - Alternativni Pogled

Google Ne želi Ustvariti Skyneta Nekega Dne, Zato Ustvarja Stikalo Za AI - Alternativni Pogled
Google Ne želi Ustvariti Skyneta Nekega Dne, Zato Ustvarja Stikalo Za AI - Alternativni Pogled

Video: Google Ne želi Ustvariti Skyneta Nekega Dne, Zato Ustvarja Stikalo Za AI - Alternativni Pogled

Video: Google Ne želi Ustvariti Skyneta Nekega Dne, Zato Ustvarja Stikalo Za AI - Alternativni Pogled
Video: Просто делаем хорошо! 2024, Julij
Anonim

V vprašanjih in razpravah o prihodnosti umetne inteligence sta dve glavni nasprotujoči si strani. V enem kotu so podjetja, kot so Google, Facebook, Amazon in Microsoft, ki agresivno vlagajo v tehnologijo, da bi sistem AI postali pametnejši, v drugem pa veliki misleci našega časa, kot sta Elon Musk in Stephen Hawking, ki verjamejo da je razvoj AI podoben "demonskemu uroku".

Eno najnaprednejših AI podjetij, DeepMind, ki je v lasti Googla, je ustvarilo varnostne ukrepe v primeru, da mora oseba "prevzeti nadzor nad robotom, katerega odpoved bi lahko povzročila nepopravljive posledice." Domnevamo lahko, da govorimo o … "ubiti vse ljudi." Seveda v resnici sprejeti ukrep ne namiguje na morebitno apokalipso, temveč gre za varnostne ukrepe, povezane s pametnimi roboti, ki delujejo in bodo v prihodnosti delovali v različnih tovarnah in obratih.

Objavljeni dokument s recepti je skupno delo DeepMind-a in Oxfordskega inštituta za prihodnost človeštva, ki se, kot že ime pove, ukvarja z vprašanji, ki bodo tej človeštvu omogočila, da stopi v prihodnost. Ustanovni direktor inštituta Nick Bostrom je desetletja zelo živo govoril o možnih nevarnostih razvoja umetne inteligence in o tem vprašanju napisal več knjig, v katerih je razpravljal o posledicah ustvarjanja superinteligentnih robotov.

Vodič, o katerem danes govorimo, imenovan »Varno onesposobljeni agenti«, raziskuje, kako onemogočiti AI, če naredi nekaj, česar človeški operater noče storiti. Delo je sestavljeno iz različnih izračunov in formul, ki jih 99 odstotkov nas najverjetneje ne bo razumelo. Torej, poenostavljeno, govorimo o "rdečem gumbu", ki AI lahko onemogoči.

Morda se boste smejali in spraševali, toda pionirji robotike in AI gledajo iste znanstvenofantastične filme kot mi. Tisti, v katerih so roboti nekoč ugotovili, kako zanemariti ukaz za izklop. Tako da bomo zdaj pripravljeni na to. V objavljenem dokumentu so opisane metode in rešitve za zagotovitev, da se "usposobljeni agent" (beri AI) ne more naučiti ignorirati ali preprečiti vpliva zunanjega okolja ali človeškega operaterja.

To se morda zdi preveč, zlasti če upoštevate, da je najsodobnejši AI v tem trenutku resnično dober le pri družabnih igrah. Vendar Bostrom verjame, da je treba, preden začnemo ustvarjati AI nivoja človeških možganov, sprejeti ustrezne ukrepe:

"Takoj, ko umetna inteligenca doseže človeško raven, se na mnogih področjih pričakuje močan skok v razvoju. Prav tako bodo kmalu zatem AI sami ustvarili nove AI. Samo ocenite te možnosti in hkrati tudi morebitne nevarnosti. Zato je bolje, da ga pretiravate, kot da ga zamudite."

NIKOLAY HIZHNYAK

Promocijski video: