Root NationVijestiIT vijestiTehnološki stručnjaci zahtijevaju zaustavljanje eksperimenata s umjetnom inteligencijom

Tehnološki stručnjaci zahtijevaju zaustavljanje eksperimenata s umjetnom inteligencijom

-

Tehnološki lideri i istaknuti istraživači AI su potpisali otvoreno pismo, koji poziva AI laboratorije i kompanije da "odmah obustave" svoj rad.

Potpisnici, uključujući Stevea Wozniaka i Elona Muska, slažu se da rizici zahtijevaju najmanje šestomjesečnu pauzu u proizvodnji tehnologija koje prevazilaze okvire GPT-4. Ovo je da se izvuče radost i zadovoljstvo iz AI sistema koji sada postoje i da se omogući ljudima da im se prilagode i vide da su korisni.

Tehnološki lideri i stručnjaci pozivaju na zaustavljanje eksperimenata s umjetnom inteligencijom

U pismu se dodaje da su oprez i promišljenost potrebni kako bi se osigurala sigurnost AI sistema, ali se oni ignorišu. Referenca na GPT-4, novi OpenAI model koji može da odgovori tekstom na pisane ili vizuelne poruke, dolazi dok se kompanije utrkuju u izgradnji sofisticiranih sistema za ćaskanje koristeći tu tehnologiju. primjer, Microsoft nedavno je potvrdio da njegov ažurirani pretraživač Bing radi na GPT-4 modelu više od 7 sedmica, a Google je nedavno zvanično predstavio bard – sopstveni generativni sistem veštačke inteligencije zasnovan na LaMDA.

Zabrinutost oko AI postoji već dugo, ali trka za usvajanjem najnaprednije tehnologije je očigledna umjetna inteligencija prvi je već alarmantan. "Posljednjih mjeseci, AI laboratorije su bile upletene u nekontrolisanu utrku za razvoj i implementaciju sve moćnijih digitalnih umova koje niko - čak ni njihovi autori - ne može razumjeti, predvidjeti ili pouzdano kontrolirati", navodi se u pismu.

Tehnološki lideri i stručnjaci pozivaju na zaustavljanje eksperimenata s umjetnom inteligencijom

Pismo je objavila neprofitna organizacija Future of Life Institute (FLI), koja radi na minimiziranju globalnih katastrofalnih i egzistencijalnih rizika i zloupotrebe novih tehnologija, posebno AI. Prethodno je Musk donirao 10 miliona dolara FLI-ju za istraživanje sigurnosti AI. Pored njega i Wozniaka, među potpisnicima su i brojni svjetski lideri u oblasti umjetne inteligencije, kao što su predsjednik Centra za AI i digitalnu politiku Mark Rothenberg, fizičar MIT-a i predsjednik FLI Max Tegmark, te autor Yuval Noah Harari.

Harari je također bio koautor članka u New York Timesu prošle sedmice upozoravajući na rizike povezane s umjetna inteligencija, na kojem su sa njim radili osnivači Centra za humane tehnologije i drugi potpisnici otvorenog pisma Tristan Haris i Aza Raskin.

Poziv je uslijedio nakon prošlogodišnje ankete više od 700 istraživača mašinskog učenja u kojoj je skoro polovina rekla da postoji oko 10% šanse za "izuzetno loše posljedice" od AI, uključujući izumiranje ljudi. Na pitanje o sigurnosti u istraživanju umjetne inteligencije, 68% ispitanika je reklo da je potrebno učiniti više ili mnogo više.

Pročitajte također:

JereloEngadget
Prijaviti se
Obavijesti o
gost

0 Komentari
Embedded Reviews
Pogledaj sve komentare