Root NationVijestiIT vijestiBiće nemoguće upravljati super inteligentnom veštačkom inteligencijom

Biće nemoguće upravljati super inteligentnom veštačkom inteligencijom

-

O ideji da umjetna inteligencija zbaci čovječanstvo raspravlja se decenijama, a u januaru 2021. godine naučnici su iznijeli svoju presudu o tome možemo li kontrolisati kompjutersku superinteligenciju visokog nivoa. Odgovoriti? Gotovo sigurno ne.

Problem je u tome što bi kontrola nadumom daleko izvan ljudskog razumijevanja zahtijevala simulaciju tog superuma koji bismo mogli analizirati. Ali ako to nismo u stanju razumjeti, nemoguće je napraviti takvu simulaciju.

Pravila poput "ne škodi ljudima" ne mogu se uspostaviti osim ako ne shvatimo koje scenarije će umjetna inteligencija (AI) smisliti, smatraju autori rada iz 2021. godine. Čim kompjuterski sistem bude radio na nivou koji prevazilazi mogućnosti naših programera, više nećemo moći da postavljamo ograničenja.

Umjetna inteligencija

"Superinteligencija je fundamentalno drugačiji problem od onih koji se obično proučavaju pod zastavom 'robotske etike'", pišu istraživači. "To je zato što je superum višestruk i stoga potencijalno sposoban mobilizirati različite resurse za postizanje ciljeva koji su ljudima potencijalno nedokučivi, a kamoli kontrolirani."

Dio obrazloženja tima dolazi iz problemi sa zaustavljanjem, koji je predložio Alan Turing 1936. Izazov je shvatiti da li će kompjuterski program doći do zaključka i odgovoriti (i prestati) ili će se samo vječno motati u potrazi za odgovorom.

Kao što je Turing dokazao uz pomoć inteligentna matematika, iako to možda znamo za neke specifične programe, logično je nemoguće pronaći način koji bi nam omogućio da to znamo za svaki potencijalni program koji bi ikada mogao biti napisan. Ovo nas vraća na AI, koja bi u superinteligentnom stanju mogla istovremeno pohraniti sve moguće kompjuterske programe u svoju memoriju.

Također zanimljivo:

Bilo koji program napisan, na primjer, da spriječi AI da nanosi štetu ljudima i uništi svijet može, ali ne mora doći do zaključka (i zaustaviti) - matematički je nemoguće biti apsolutno siguran na bilo koji način, što znači da se ne može obuzdati. "To u osnovi čini algoritam odvraćanja neupotrebljivim", rekao je u januaru kompjuterski naučnik Iyad Rahwan sa Instituta Max Planck za ljudski razvoj u Njemačkoj.

Alternativa podučavanju etike veštačke inteligencije i zabranama uništavanja sveta, u šta nijedan algoritam ne može biti potpuno siguran, kažu istraživači, jeste ograničavanje sposobnosti superuma. Na primjer, može biti odsječen od dijela interneta ili određenih mreža.

Autori nedavne studije odbacuju i ovu ideju, vjerujući da će ograničiti domet umjetne inteligencije – kažu, ako je nećemo koristiti za rješavanje problema iznad ljudskih mogućnosti, zašto je onda uopće stvarati?

Umjetna inteligencija

Ako ćemo unaprijediti umjetnu inteligenciju, možda nećemo ni znati kada će se superinteligencija pojaviti, izvan naše kontrole, toliko je nedokučiva. To znači da moramo početi da postavljamo ozbiljna pitanja o tome kuda idemo.

"Superinteligentna mašina koja upravlja svetom zvuči kao naučna fantastika", kaže kompjuterski naučnik Manuel Kebrijan sa Instituta za ljudski razvoj Maks Plank. Ali već postoje mašine koje samostalno obavljaju neke važne zadatke, dok programeri ne razumiju u potpunosti kako su to naučili.

Stoga se postavlja pitanje može li to u jednom trenutku postati nekontrolisano i opasno po čovječanstvo...

Pročitajte također:

Prijaviti se
Obavijesti o
gost

0 Komentari
Embedded Reviews
Pogledaj sve komentare