Znanstveniki So Predlagali Način, Kako Preprečiti Konec Sveta Zaradi Robotov V Prihodnosti - Alternativni Pogled

Znanstveniki So Predlagali Način, Kako Preprečiti Konec Sveta Zaradi Robotov V Prihodnosti - Alternativni Pogled
Znanstveniki So Predlagali Način, Kako Preprečiti Konec Sveta Zaradi Robotov V Prihodnosti - Alternativni Pogled

Video: Znanstveniki So Predlagali Način, Kako Preprečiti Konec Sveta Zaradi Robotov V Prihodnosti - Alternativni Pogled

Video: Znanstveniki So Predlagali Način, Kako Preprečiti Konec Sveta Zaradi Robotov V Prihodnosti - Alternativni Pogled
Video: ОБЗОР на САМОГО БЫСТРОГО РОБОТА ! 2024, April
Anonim

Mnogi se bojijo vstaje robota v prihodnosti in pozivajo, da se ustavi razvoj umetne inteligence, da bi se v prihodnosti izognili negativnemu scenariju. Toda v panogi, ki je povezana z razvojem robotike, sodeluje ogromno ljudi in denarja, zato razvoj takšnih tehnologij nihče ne bo ustavil. Ali se lahko zaradi svojih stvaritev srečamo z apokalipso in ali obstaja način, kako preprečiti vstajo strojev?

Pred časom je Science Alert objavil članek strokovnjakov iz sveta znanosti, ki so govorili o razvoju posebnega algoritma, ki bo pomagal preprečiti nenadzorovano vedenje robotov z umetno inteligenco v prihodnosti. Po mnenju znanstvenikov roboti zaradi te metode preprosto ne morejo škodovati človeku.

Znanstveniki so svoj algoritem imenovali seldonski. Kakšen pa je njen pomen? Algoritmi bodo lahko analizirali nesprejemljivo vedenje strojev in bodo maksimalno zaščitili ljudi pred negativnimi dejanji robotov, vendar algoritmi ne vsebujejo koncepta dobrega in slabega vedenja, zato vsi zaščitni funkcije algoritmov ne verjamejo.

Razvijalci novega sistema so o delovanju algoritma povedali na enem od primerov, ki je krmiljenje inzulinske črpalke z uporabo avtomatiziranega sistema. Če se količina inzulina v pacientovi krvi zmanjša na izjemno nizko raven, potem algoritmi predlagajo ukrepe, ki so potrebni za reševanje osebe.

Pred časom so številni znanstveniki izrazili zaskrbljenost nad razvojem jedrskega orožja, ki temelji na umetni inteligenci. Če se bodo takšni sistemi sami odločali, potem lahko to na Zemlji povzroči apokalipso. Ne pozabite na dejanja hekerjev, ki lahko takšne sisteme vdrejo v sistem in nobeni zaščitni algoritmi v tem primeru ne bodo pomagali. Tako je mogoče šteti, da na področju razvoja robotov in umetne inteligence ni idealne zaščite pred grožnjami sodobnega sveta.