Root NationČlanciAnalitikaŠest zapovesti veštačke inteligencije

Šest zapovesti veštačke inteligencije

-

Naredne godine će biti obilježene brzim razvojem tehnologija umjetne inteligencije. Možda je potrebno uvesti jasno definisane okvire za kreiranje i upotrebu AI? Da li je 6 mjeseci iskustva dovoljno da se regulira tehnologija koja još nije ni izašla iz laboratorije? Ovo pitanje sve češće dolazi iz usta stručnjaka i novinara kada je u pitanju umjetna inteligencija. Sve češće se čuju glasovi i pozivi da se poduzmu mjere za reguliranje umjetne inteligencije - kako na nivou korisnika tako i na nivou razvoja projekta. Istorija ovakvih apelacija počela je dosta davno.

Sveprisutna prisutnost umjetne inteligencije u digitalnom prostoru i prije svega modela sposobnih za kreiranje sadržaja koji se neće razlikovati od onoga što stvaraju ljudi, izaziva vrlo različite emocije. S jedne strane, imamo grupu entuzijasta koji budućnost vide u AI i, unatoč relativno ograničenim mogućnostima (jer AI ne razmišlja, i često samo preuzima informacije s interneta), ne boje se povjeriti joj mnoge zadatke. . S druge strane barikade nalazi se grupa koja izražava svoju skepsu i zabrinutost za aktuelne trendove u razvoju umjetne inteligencije.

AI postulat

Most između ove dvije grupe su istraživači umjetne inteligencije, koji, s jedne strane, navode brojne primjere kako je umjetna inteligencija pozitivno utjecala na okolnu stvarnost. Istovremeno, shvaćaju da je prerano da se odmaraju na lovorikama, a ogroman tehnološki iskorak donosi brojne izazove i veliku odgovornost. Jasan primjer ovakvog stava je međunarodna grupa istraživača umjetne inteligencije i mašinskog učenja na čelu sa dr. Ozlemom Garibayem sa Univerziteta Centralne Floride. Publikacija na 47 stranica, koju je napisalo 26 naučnika iz cijelog svijeta, identificira i opisuje šest izazova s ​​kojima se istraživačke institucije, kompanije i korporacije moraju pozabaviti kako bi svoje modele (i softver koji ih koristi) učinili sigurnim.

Da, ovo je ozbiljan naučni rad sa važnim objašnjenjima za razumevanje budućnosti veštačke inteligencije. Ko je zainteresovan, može samostalno pročitajte ovaj naučni izvještaj i sami donesite zaključke. Jednostavnim rečima, naučnici su identifikovali 6 zapovesti veštačke inteligencije. Svi razvoji i radnje AI moraju biti u skladu s njima kako bi bili sigurni za ljude i svijet.

AI postulat

U svom članku, napisanom upravo na osnovu ovog naučnog rada, pokušaću da formulišem glavne postulate, zakone po kojima bi veštačka inteligencija trebalo da postoji i da se razvija. Da, ovo je moja skoro slobodna interpretacija zaključaka naučnika o razvoju veštačke inteligencije i pokušaj da ih predstavim u, da tako kažem, biblijskoj verziji. Ali ovako sam želio da vas upoznam sa ovim naučnim radom uglednih naučnika.

Također zanimljivo: Izgradnja AI: ko vodi trku?

Prvi zakon: Ljudsko blagostanje

Prvi postulat istraživača je fokusiranje rada umjetne inteligencije na dobrobit ljudi. Zbog nedostatka "ljudskih vrijednosti, zdravog razuma i etike", umjetna inteligencija može djelovati na način koji će dovesti do značajnog pogoršanja ljudskog blagostanja. Problemi mogu biti rezultat nadljudskih sposobnosti AI (na primjer, koliko lako AI pobjeđuje ljude - i to ne samo u šahu), ali i činjenice da AI ne razmišlja svojom glavom, pa stoga nije u stanju da "filtrira" predrasude ili očigledne greške.

AI Postulat

- Advertisement -

Istraživači primjećuju da pretjerano povjerenje u tehnologije umjetne inteligencije može negativno utjecati na dobrobit ljudi. Društvo koje slabo razumije kako algoritmi umjetne inteligencije zapravo funkcioniraju, sklono je pretjeranom povjerenju u njega, ili, naprotiv, ima negativan stav prema sadržaju koji generiše određeni model, posebno chatbotovima. Uzimajući u obzir ove i druge faktore, Garibayev tim poziva da se ljudsko blagostanje stavi u centar budućih interakcija AI-ljudi.

Pročitajte također: ChatGPT: jednostavan korisnički vodič

Drugi zakon: Odgovornost

Odgovornost je pojam koji se stalno pojavljuje u svijetu umjetne inteligencije u kontekstu onoga za šta koristimo strojno učenje i kako se točno AI modeli i algoritmi razvijaju i obučavaju. Međunarodni tim naglašava da dizajn, razvoj i implementaciju umjetne inteligencije treba raditi isključivo u dobrim namjerama.

AI Postulat

Po njihovom mišljenju, odgovornost treba posmatrati ne samo u tehničkom, već iu pravnom i etičkom kontekstu. Tehnologija se mora posmatrati ne samo sa stanovišta njene efikasnosti, već iu kontekstu njene upotrebe.

"Uvođenjem naprednih tehnika mašinskog učenja postaje sve važnije razumjeti kako je odluka donesena i ko je za nju odgovoran” - pišu istraživači.

Treći zakon: Povjerljivost

Privatnost je tema koja bumerangima ulazi u svaki diskurs o tehnologiji. Pogotovo kada se o svemu raspravlja na društvenim mrežama. Međutim, ovo je izuzetno važno za umjetnu inteligenciju jer ona ne postoji bez baze podataka. A šta su baze podataka?

Naučnici ih opisuju kao "apstrakciju osnovnih građevnih blokova koji čine način na koji vidimo svijet". Ovi blokovi su obično svjetovne vrijednosti: boje, oblici, teksture, udaljenosti, vrijeme. Dok uski AI fokusiran na jedan cilj, kao što je stepen do kojeg se zatvarač otvara pri datom intenzitetu svetlosti, koristi javno dostupne objektivne podatke, AI u širim primenama (ovde, na primer, modeli teksta u sliku kao što su Midjourney , ili jezički modeli kao što je ChatGPT) mogu koristiti podatke o ljudima i kreirane od njih. Treba spomenuti i članke u štampi, knjige, ilustracije i fotografije objavljene na internetu. Algoritmi umjetne inteligencije imaju pristup svemu, jer smo im mi sami to dali. U suprotnom, neće znati ništa i neće dati odgovore ni na jedno pitanje.

AI Postulat

Korisnički podaci suštinski utiču kako na ljude o kojima se ti podaci prikupljaju, tako i na ljude u sistemu u kojem će se implementirati algoritmi veštačke inteligencije.

Stoga se treći izazov odnosi na široko razumijevanje privatnosti i pružanje takvih prava kao što su pravo da ostane sam, pravo na ograničenje pristupa samom sebi, pravo na tajnu ličnog života ili poslovanja, pravo na kontrolu ličnog života. informacije, odnosno pravo na zaštitu svoje ličnosti, individualnosti i dostojanstva. Sve ovo mora biti zapisano u algoritme, inače privatnost jednostavno neće postojati, a AI algoritmi se mogu koristiti u prijevarnim shemama kao iu krivičnim djelima.

Pročitajte također: 7 najboljih načina da koristite ChatGPT

Četvrti zakon: Struktura projekta

Umjetna inteligencija može biti izuzetno jednostavna i jednonamjenska, ali u slučaju većih modela sa širokom prirodom i više zadataka, problem nije samo privatnost podataka, već i struktura dizajna.

Na primjer, GPT-4, OpenAI-jev najnoviji model umjetne inteligencije, uprkos svojoj veličini i utjecaju na svijet AI (i šire), nema u potpunosti javnu dokumentaciju. Odnosno, nemamo razumijevanje šta su krajnji ciljevi za programere, šta žele dobiti u konačnom rezultatu. Stoga ne možemo u potpunosti procijeniti rizike povezane s korištenjem ovog AI modela. GPT-3, s druge strane, obučen na podacima sa 4chan foruma, je model sa kojim definitivno ne želite da komunicirate. 4chan forum je jedan od najzanimljivijih fenomena na internetu. Ovo je primjer apsolutne, totalne anarhije, koja u praksi nije ograničena nikakvim okvirima. Ovdje su stvorene hakerske grupe poput Anonymous ili LulzSec. Izvor je mnogih najpopularnijih memova, mjesto za diskusiju o kontroverznim temama i objavljivanje još kontroverznijih mišljenja. Iako je na imidžu na engleskom jeziku navedeno da je "zasad to legalno", to je pomalo upitno, s obzirom na to da 4chan povremeno komunicira s medijima, uključujući rasistički, nacistički i seksistički sadržaj.

AI Postulat

- Advertisement -

Tim profesora Garibaya želi da svaki model vještačke inteligencije radi u jasno definisanom okviru. Ne samo zbog dobrobiti osobe s kojom AI komunicira, već i zbog sposobnosti procjene rizika povezanih s korištenjem modela. Struktura svakog projekta treba da uključuje uvažavanje potreba, vrijednosti i želja različitih kulturnih grupa i dionika. Proces kreiranja, obuke i finog podešavanja AI treba da bude fokusiran na ljudsku dobrobit, a krajnji proizvod – AI model – treba da bude fokusiran na poboljšanje i poboljšanje produktivnosti same ljudske zajednice. Modeli u kojima se rizici ne mogu identifikovati treba da imaju ograničen ili kontrolisan pristup. Oni ne bi trebali predstavljati prijetnju čovječanstvu, već naprotiv, doprinositi razvoju čovjeka i društva u cjelini.

Pročitajte također: Twitter u rukama Elona Muska - prijetnja ili "poboljšanje"?

Peti zakon: Upravljanje i nezavisni nadzor

Algoritmi umjetne inteligencije bukvalno su promijenili svijet za samo godinu dana. Bard od Google i Bing premijerno Microsoft značajno uticala na akcije oba giganta na berzi. Inače, doprinijeli su rastu dionica ovih kompanija čak i na pozadini dionica Apple. ChatGPT je počeo da se aktivno koristi od strane učenika, oni komuniciraju sa njim, ispituju ga i postavljaju pitanja. Najvažnije je da ima sposobnost samoučenja, ispravljanja svojih grešaka. Umjetna inteligencija počinje raditi čak i u vladama nekih zemalja. Ovo je slučaj premijera Rumunije, Nicolae Chuca unajmio virtuelnog asistent koji će ga informisati o potrebama društva. Odnosno, umjetna inteligencija igra sve važniju ulogu u našim životima.

AI

S obzirom na sve veću međuzavisnost između umjetne inteligencije, čovjeka i okoliša, naučnici smatraju neophodnim stvaranje upravljačkih tijela i nezavisan nadzor nad njenim razvojem. Ova tijela će kontrolirati cijeli životni ciklus umjetne inteligencije: od ideje do razvoja i implementacije. Vlasti će pravilno definirati različite modele AI i razmotriti slučajeve koji se odnose na umjetnu inteligenciju i subjekte društvenog života. Odnosno, umjetna inteligencija može postati predmet sudskih sporova, ali i tužbi. Iako, naravno, ne on lično, već njegovi programeri.

Pročitajte također: Sve o Neuralinku: Početak Cyberpunk ludila?

Šesti zakon: Interakcija čovjeka i vještačke inteligencije

U programima umjetne inteligencije svako može pronaći nešto za sebe: generirati tekst, detektirati sadržaj na slikama, odgovarati na pitanja, generirati slike, prepoznati ljude na fotografijama, analizirati podatke. Ove višestruke upotrebe nisu samo briga ljudi koji pokušavaju da prilagode veštačku inteligenciju pravnim i etičkim standardima. Mnogi se plaše da će ih AI modeli istisnuti s tržišta rada. Zato što će algoritmi umjetne inteligencije moći učiniti istu stvar brže, jeftinije, a možda čak i bolje od čovjeka. Istovremeno, postoje ljudi koji se u svom radu oslanjaju na AI, odnosno umjetna inteligencija im je već danas nezamjenjiv pomoćnik.

AI

Ali iz studija na koje se pozivaju naučnici jasno je da je zamena ljudi jeftinom veštačkom radnom snagom još uvek prilično daleko. Uprkos tome, oni već insistiraju na potrebi da se uspostavi stroga hijerarhija interakcije između ljudi i veštačke inteligencije. Po njihovom mišljenju, ljude treba staviti iznad vještačke inteligencije. Umjetna inteligencija mora biti kreirana uz poštovanje kognitivnih sposobnosti osobe, uzimajući u obzir njene emocije, društvene interakcije, ideje, planiranje i interakciju s objektima. Odnosno, u svim situacijama, osoba je ta koja mora stajati nad umjetnom inteligencijom, kontrolirati ponašanje i sadržaj kreiran od strane modela i biti odgovoran za to. Jednostavnim riječima, čak i najnaprednija AI mora poslušati osobu i ne prelaziti ono što je dozvoljeno, kako ne bi naudilo svom kreatoru.

Pročitajte također: Kako Ukrajina koristi i prilagođava Starlink tokom rata

Novosti

Da, neko će reći da naučnici u svom izvještaju nisu naveli ništa važno i novo. Svi već dugo pričaju o tome. Ali već sada je potrebno staviti AI u neke okvire zakona. Posezanje za GPT-4 je kao posezanje za nožem na slepo. Kriju ključne informacije od nas. Sva dešavanja u oblasti veštačke inteligencije, a posebno ChatGPT projekat iz Open AI, često me podsećaju na podizanje malog deteta. Ponekad se čini da je ovo dijete vanzemaljskog porijekla. Da, vanzemaljac, ali on je ipak dijete koje uči, griješi, ponekad se ponaša neprimjereno, razdražljivo je, svađa se sa roditeljima. Iako raste i razvija se vrlo brzo.

AI

Čovječanstvo možda neće pratiti svoj razvoj i stvari mogu izmaći kontroli. Dakle, čovečanstvo već treba da shvati zašto sve to razvijamo, da zna krajnje ciljeve, da budemo „odgovorni roditelji“, jer u suprotnom „dete“ može jednostavno da uništi svoje „roditelje“.

Pročitajte također: 

Yuri Svitlyk
Yuri Svitlyk
Sin Karpata, nepriznati genije matematike, "advokat"Microsoft, praktični altruista, lijevo-desno
- Advertisement -
Prijaviti se
Obavijesti o
gost

0 Komentari
Embedded Reviews
Pogledaj sve komentare