Root NationVijestiIT vijestiOpenAI je dozvolio upotrebu ChatGPT-a u vojne svrhe

OpenAI je dozvolio upotrebu ChatGPT-a u vojne svrhe

-

Prije samo nekoliko dana na stranici o politici korištenja OpenAI jasno je navedeno da kompanija zabranjuje upotrebu svoje tehnologije u "vojne i vojne svrhe". Ova linija je od tada uklonjena. Kako je prvi uočio The Intercept, kompanija je ažurirala stranicu 10. januara "kako bi bila jasnija i pružila konkretnije smjernice za određene usluge", prema popisu promjena. Kompanija i dalje zabranjuje upotrebu svojih velikih jezičkih modela (LLM) za bilo šta što bi moglo uzrokovati štetu i upozorava ljude da ne koriste njene usluge za "razvijanje ili upotrebu oružja". Međutim, kompanija je uklonila formulaciju koja se odnosi na "vojne i vojne akcije".

OpenAI

Iako tek treba da vidimo kako će se ovo odigrati u stvarnom životu, ova promena u formulaciji dolazi upravo u trenutku kada vojna odeljenja širom sveta pokazuju interesovanje za korišćenje veštačke inteligencije. "S obzirom na korištenje sistema umjetne inteligencije za ciljanje civila u Gazi, ovo je važan trenutak za odluku da se uklone riječi 'vojna i vojna akcija' iz politike dopuštene upotrebe OpenAI-a", Sarah Myers West, izvršna direktorica AI-a Sada Institut, rekao je za izdanje. , u intervjuu.

Direktno spominjanje "vojne" na listi zabranjenih upotreba ukazuje na to da OpenAI neće moći da radi sa vladinim agencijama kao što je Ministarstvo odbrane, koje obično nudi izvođačima unosne poslove. Trenutno, kompanija nema proizvod koji može direktno ubiti ili fizički naškoditi bilo kome. Ali kako The Intercept ističe, njegova tehnologija bi se mogla koristiti za zadatke poput pisanja koda i obrade narudžbi za stvari koje bi se mogle koristiti za ubijanje ljudi.

Na pitanje o promjeni formulacije politike, glasnogovornik OpenAI-a Nico Felix rekao je za publikaciju da je kompanija "težila stvoriti skup univerzalnih principa koji se lako pamte i primjenjuju, posebno s obzirom na to da naše alate sada koriste širom svijeta obični korisnici koji sada takođe mogu kreirati GPT-ove”. Felix je objasnio da je "princip poput ``Ne naškodi drugima" širok, ali lako razumljiv i relevantan u mnogim kontekstima", dodajući da OpenAI "konkretno navodi oružje i ranjavanje drugih kao jasne primjere." Međutim, glasnogovornik kompanije je navodno odbio da precizira da li zabrana korištenja njene tehnologije za "nanošenje štete" drugima uključuje sve vojne upotrebe osim razvoja oružja.

OpenAI

U izjavi za Engadget, glasnogovornik OpenAI-a je rekao: “Naša je politika da ne koristimo naše alate za nanošenje štete ljudima, razvoj oružja, praćenje komunikacija, nanošenje tjelesnih povreda drugima ili uništavanje imovine. Međutim, postoje slučajevi upotrebe nacionalne sigurnosti koji su u skladu s našom misijom. Na primjer, već radimo s DARPA-om na stvaranju novih alata za cyber sigurnost za zaštitu softvera otvorenog koda od kojeg zavise kritična infrastruktura i industrija. Bilo je nejasno da li bi ovi korisni slučajevi upotrebe bili dozvoljeni prema "vojnoj" politici u našoj prethodnoj politici. Stoga je svrha ažuriranja naše politike da pruži jasnoću i priliku za ove rasprave."

Pročitajte također:

JereloEngadget
Prijaviti se
Obavijesti o
gost

0 Komentari
Embedded Reviews
Pogledaj sve komentare
Ostali članci
Pretplatite se na ažuriranja
Popularno sada