PC Press specijal - Bezbednost 2025

Američka vojska koristi ChatGPT za donošenje odluka i planiranje operacija

Kompanija OpenAI je prošlog meseca objavila istraživanje o korišćenju veštačke inteligencije koje je pokazalo da se gotovo 15 odsto poslovnih razgovora na ChatGPT-u odnosi na „donošenje odluka i rešavanje problema“. Sada se pojavila i vest da bar jedan visoki američki vojni oficir koristi velike jezičke modele (LLM) u iste svrhe.

PCPress.rs Image

Na konferenciji Udruženja američke vojske (AUSA) u Vašingtonu ove nedelje general-major Vilijam Hank Tejlor je izjavio da su on i „Chat“ u poslednje vreme „veoma bliski“, koristeći zabrinjavajuće prisnu nadimak-formu za neimenovanog bota. „Veštačka inteligencija je nešto što je za mene bilo veoma, veoma zanimljivo iskustvo“, rekao je.

Sky Express - Pouzdan partner za bezbednost digitalnih podataka

Specijalizovani portal DefenseScoop prenosi da je Tejlor novinarima objasnio kako on i Osma armija, kojom komanduje iz Južne Koreje, redovno koriste AI tehnologije da bi modernizovali prediktivnu analitiku za potrebe logističkog planiranja i operativnih odluka. AI, kako je rekao, pomaže i u svakodnevnim birokratskim poslovima, poput „pisanja nedeljnih izveštaja i sličnih stvari“, ali i u oblikovanju šire strategije delovanja.

Jedna od stvari na kojoj sam poslednjih meseci lično radio sa svojim vojnicima jeste donošenje odluka – individualno donošenje odluka“, rekao je Tejlor. „Način na koji donosimo odluke u sopstvenom životu je važan, pa pokušavam da izgradim modele koji će nam svima pomoći da bolje razumemo taj proces. Pogotovo kada donosim odluke koje ne utiču samo na mene, već i na moju organizaciju i ukupnu spremnost“.

Pročitajte i:  Iskusniji programeri prednjače u korišćenju AI alata za kodiranje

To je i dalje daleko od scenarija iz „Terminatora“, gde autonomni AI sistemi donose smrtonosne odluke bez ljudske kontrole. Ipak, sama ideja da se LLM modeli koriste u vojnim procesima odlučivanja može biti zabrinjavajuća, s obzirom na poznatu sklonost ovih sistema ka izmišljanju i prenaglašenom udvaranju korisniku.

Američka vojska je u maju pokrenula Army Enterprise LLM Workspace, sistem zasnovan na komercijalnoj platformi Ask Sage, koji služi za automatizaciju jednostavnih zadataka, poput pisanja saopštenja za javnost i opisa kadrovskih pozicija. Testovi su pokazali da generativni AI ipak nije uvek najefikasniji način da se obavi „posao iz kancelarije“.

PCPress.rs Image

Mnogi koriste ovu tehnologiju za zadatke koje bismo mogli rešiti jednom formulom u Excel-u, a plaćamo mnogo više za to“, rekao je šef IT sektora američke vojske, Leonel Garsiga, u avgustu. „Vredi li to stvarno? Ili postoji jednostavnije, jeftinije rešenje, možda manje moderno, ali praktičnije?“

Američki Stejt department je još 2023. godine definisao najbolje prakse za vojnu upotrebu AI sistema, naglašavajući etičnu i odgovornu primenu u okviru ljudskog lanca komandovanja. Izveštaj je istakao da ljudi moraju da ostanu u kontroli „odluka koje se tiču upotrebe nuklearnog oružja“ i da zadrže mogućnost da isključe ili deaktiviraju AI sisteme koji pokažu neželjeno ponašanje. Od tada, vojska sve više istražuje polje primene AI tehnologija na terenu ­– od automatskog nišanjenja dronova, do „poboljšanja situacione svesti“ kroz partnerstvo OpenAI-a i vojnog kontraktora Anduril.

Pročitajte i:  YouTube priznaje: koristi mašinsko učenje za doterivanje videa – ali tvrdi da nije u pitanju AI

U januaru 2024, OpenAI je uklonio zabranu na „vojnu i ratnu upotrebu“ ChatGPT-a, iako i dalje zabranjuje da se modeli koriste za razvoj oružja.

Facebook komentari:
Tagovi: , , ,

Leave a Reply

Your email address will not be published. Required fields are marked *