Root NationVijestiIT vijestiPentagon želi povećati sposobnosti američkog nuklearnog oružja uz pomoć umjetne inteligencije

Pentagon želi povećati sposobnosti američkog nuklearnog oružja uz pomoć umjetne inteligencije

-

Sjedinjene Države dugo su zadržale strogu politiku da je ljudski nadzor neophodan za kontrolu nuklearnog oružja i izričito su obećale da neće dozvoliti umjetnoj inteligenciji da samostalno donosi odluke kada je riječ o lansiranju projektila. Međutim, Ministarstvo odbrane SAD sve je više zainteresovano za integraciju veštačke inteligencije u sisteme komandovanja, kontrole i komunikacije nuklearnih snaga kako bi "pojačalo" njihovu efikasnost.

Pratite naš kanal za najnovije vijesti Google News online ili putem aplikacije.

США

U izjavi krajem prošlog mjeseca, general Anthony J. Cotton, predsjedavajući Strateške komande SAD-a, naglasio je da Amerika aktivno istražuje sve moguće tehnologije, tehnike i metode za modernizaciju sposobnosti nuklearne tehnologije. Istraživanje je već izazvalo debatu, jer prisustvo AI u vojnim operacijama visokih uloga nije bez presedana. Autonomni sistemi kao što su borbeni avioni, dronovi, pa čak i mitraljezi sa umjetnom inteligencijom sada su dio američkog arsenala, što izaziva zabrinutost zbog potencijala katastrofalnih grešaka. Također, ideja da bi umjetna inteligencija mogla nenamjerno utjecati na nuklearne odluke izgleda uznemirujuće bliska zapletu distopijskog filma.

General Cotton, govoreći o ovim zabrinutostima na konferenciji o informacionim sistemima odbrane 2024. godine, ponovio je da, iako će AI zaista pomoći u donošenju odluka unutar nuklearnih komandnih struktura, ona neće zamijeniti ljudsku prosudbu.

"Nikada ne bismo trebali dozvoliti da umjetna inteligencija donosi ove odluke umjesto nas."

Cotton je napomenuo da je cilj brzo i precizno obraditi informacije, ostavljajući pritom ljudsku ulogu u donošenju odluka. Napredni AI sistemi, prema njegovom mišljenju, mogu značajno poboljšati vrijeme operativnog odgovora, dajući komandantima proširen prostor za donošenje odluka.

США

Strahovi o pouzdanosti AI u scenarijima s visokim ulozima su dobro utemeljeni. U februaru su istraživači simulirali međunarodne sukobe koristeći pet osnovnih jezičkih modela: GPT-4, GPT-3.5, Claude 2.0, Llama-2-Chat i GPT-4-Base. Kao rezultat toga, dobijeni su uznemirujući rezultati: neki modeli su doveli do eskalacije sukoba, pa čak i do raspoređivanja nuklearnog oružja bez prethodnog odobrenja.

Ukoliko ste zainteresovani za članke i vesti o vazduhoplovnoj i svemirskoj tehnologiji, pozivamo vas na naš novi projekat AERONAUT.media.

Pročitajte također:

JereloTechspotu
Prijaviti se
Obavijesti o
gost

0 Komentari
Najnovije
Najstariji Najviše glasova
Povratne informacije u realnom vremenu
Pogledaj sve komentare