Root NationIgreVijesti o igramaCall of Duty će koristiti AI za moderiranje glasovnih razgovora

Call of Duty će koristiti AI za moderiranje glasovnih razgovora

-

Pucalice u prvom licu kao što je Call of Duty pomalo su ozloglašene zbog toksičnosti svojih lobija i glasovnih razgovora. Ankete nazivaju bazu obožavatelja franšize najnegativnijom u industriji igara; svađa između dva igrača jednom je dovela do pozivanja specijalne ekipe. Activision se godinama pokušava boriti protiv ovakvog ponašanja, a dio rješenja možda ima veze s umjetnom inteligencijom.

Call of Duty će koristiti AI za moderiranje glasovnih razgovora

Activision se udružio s Modulateom kako bi u svoje igre uveo „moderaciju glasovnog ćaskanja u igri“. Novi sistem moderiranja koji koristi tehnologiju umjetne inteligencije pod nazivom ToxMod radit će na otkrivanju ponašanja poput diskriminacije i uznemiravanja u realnom vremenu.

ToxMod-ovo početno beta testiranje u Sjevernoj Americi počinje danas. Aktivan je u Call of Duty: Modern Warfare II i Call of Duty: Warzone. "Puno izdanje širom svijeta" (ne uključuje Aziju, kao što je navedeno u saopštenju za javnost) održat će se 10. novembra sa izdavanjem Call of Duty: Modern Warfare III, nove verzije franšize ove godine.

Modulate-ovo saopštenje za javnost ne govori mnogo o tome kako točno ToxMod funkcionira. On site kompanija napominje da alat "moderira glasovni razgovor kako bi označio loše ponašanje, analizira nijanse svakog razgovora kako bi identificirao toksičnost i omogućava moderatorima da brzo odgovore na svaki incident pružajući relevantan i tačan kontekst." U nedavnom intervjuu, izvršni direktor kompanije rekao je da alat ima za cilj da ide dalje od jednostavne transkripcije. Takođe uzima u obzir faktore kao što su emocije i jačina igrača kako bi se razlikovale zlonamerne i šaljive primedbe.

Call of Duty će koristiti AI za moderiranje glasovnih razgovora

Vrijedi napomenuti da alat (barem za sada) neće poduzeti mjere protiv igrača na osnovu svojih podataka, već će samo slati izvještaje Activision moderatorima. Ljudska uključenost će vjerovatno ostati važna mjera zaštite, budući da je istraživanje pokazalo da sistemi za prepoznavanje govora mogu pokazati pristrasnost u načinu na koji reagiraju na korisnike s različitim rasnim identitetima i akcentima.

Pročitajte također:

JereloTheverge
Prijaviti se
Obavijesti o
gost

0 Komentari
Embedded Reviews
Pogledaj sve komentare