Američka vojska koristi ChatGPT za donošenje odluka i planiranje operacija
Kompanija OpenAI je prošlog meseca objavila istraživanje o korišćenju veštačke inteligencije koje je pokazalo da se gotovo 15 odsto poslovnih razgovora na ChatGPT-u odnosi na „donošenje odluka i rešavanje problema“. Sada se pojavila i vest da bar jedan visoki američki vojni oficir koristi velike jezičke modele (LLM) u iste svrhe.

Na konferenciji Udruženja američke vojske (AUSA) u Vašingtonu ove nedelje general-major Vilijam Hank Tejlor je izjavio da su on i „Chat“ u poslednje vreme „veoma bliski“, koristeći zabrinjavajuće prisnu nadimak-formu za neimenovanog bota. „Veštačka inteligencija je nešto što je za mene bilo veoma, veoma zanimljivo iskustvo“, rekao je.
Specijalizovani portal DefenseScoop prenosi da je Tejlor novinarima objasnio kako on i Osma armija, kojom komanduje iz Južne Koreje, redovno koriste AI tehnologije da bi modernizovali prediktivnu analitiku za potrebe logističkog planiranja i operativnih odluka. AI, kako je rekao, pomaže i u svakodnevnim birokratskim poslovima, poput „pisanja nedeljnih izveštaja i sličnih stvari“, ali i u oblikovanju šire strategije delovanja.
„Jedna od stvari na kojoj sam poslednjih meseci lično radio sa svojim vojnicima jeste donošenje odluka – individualno donošenje odluka“, rekao je Tejlor. „Način na koji donosimo odluke u sopstvenom životu je važan, pa pokušavam da izgradim modele koji će nam svima pomoći da bolje razumemo taj proces. Pogotovo kada donosim odluke koje ne utiču samo na mene, već i na moju organizaciju i ukupnu spremnost“.
To je i dalje daleko od scenarija iz „Terminatora“, gde autonomni AI sistemi donose smrtonosne odluke bez ljudske kontrole. Ipak, sama ideja da se LLM modeli koriste u vojnim procesima odlučivanja može biti zabrinjavajuća, s obzirom na poznatu sklonost ovih sistema ka izmišljanju i prenaglašenom udvaranju korisniku.
Američka vojska je u maju pokrenula Army Enterprise LLM Workspace, sistem zasnovan na komercijalnoj platformi Ask Sage, koji služi za automatizaciju jednostavnih zadataka, poput pisanja saopštenja za javnost i opisa kadrovskih pozicija. Testovi su pokazali da generativni AI ipak nije uvek najefikasniji način da se obavi „posao iz kancelarije“.

„Mnogi koriste ovu tehnologiju za zadatke koje bismo mogli rešiti jednom formulom u Excel-u, a plaćamo mnogo više za to“, rekao je šef IT sektora američke vojske, Leonel Garsiga, u avgustu. „Vredi li to stvarno? Ili postoji jednostavnije, jeftinije rešenje, možda manje moderno, ali praktičnije?“
Američki Stejt department je još 2023. godine definisao najbolje prakse za vojnu upotrebu AI sistema, naglašavajući etičnu i odgovornu primenu u okviru ljudskog lanca komandovanja. Izveštaj je istakao da ljudi moraju da ostanu u kontroli „odluka koje se tiču upotrebe nuklearnog oružja“ i da zadrže mogućnost da isključe ili deaktiviraju AI sisteme koji pokažu neželjeno ponašanje. Od tada, vojska sve više istražuje polje primene AI tehnologija na terenu – od automatskog nišanjenja dronova, do „poboljšanja situacione svesti“ kroz partnerstvo OpenAI-a i vojnog kontraktora Anduril.
U januaru 2024, OpenAI je uklonio zabranu na „vojnu i ratnu upotrebu“ ChatGPT-a, iako i dalje zabranjuje da se modeli koriste za razvoj oružja.


