Microsoft je lansirao Phi-3 Mini, novu verziju svog laganog AI modela dizajniranog za specifične zadatke
Prema istraživačkom radu objavljenom ranije ove nedelje, Phi-3 Mini ima 3.8 milijardi parametara, što je značajno manje od drugih modela poput GPT-4 kompanije OpenAI, čineći ga dovoljno malim da se implementira na pametnom telefonu. OpenAI nije podelio koliko parametara ima GPT-4, ali se veruje da ima preko bilion parametara.
Mali i veoma pametan
Tradicionalni AI modeli zahtevaju ogromne količine računarske snage, što je veoma skupo i ima ogroman ekološki otisak. Kompanije poput Microsofta i Google-a radile su na manjim laganim modelima koji se bave uobičajenim zadacima, što bi učinilo hostovanje njihovih modela održivijim – u operativnom smislu – i prikladnijim za pametne telefone, gde se industrija intenzivno oslanja. Samsung se potpuno posvetio generativnoj AI sa kolekcijom funkcija za svoje Galaxy uređaje, Google takođe dodaje generativne AI funkcije u svoj Pixel liniju, a čak se i očekuje da će Apple napraviti neke velike AI najave za iOS 18.
Parametri se odnose na to kako modeli mogu da se nose sa složenošću, pa što je više parametara, model je sposobniji za obradu raznovrsnih i nijansiranih zahteva. Ali za svakodnevne zadatke koje prosečan korisnik očekuje od AI modela, poput prevoda, pomoći u sastavljanju emaila ili traženja lokalnih restorana, pretpostavlja se da je manji lagani model dovoljan.
Phi-3 Mini postigao je slične rezultate kao i otvoreni model Llama 3 kompanije Meta i GPT-3.5 kompanije OpenAI na uobičajenim testovima s nekoliko izuzetaka. Premašio je Llama 3 i postigao samo malo niže rezultate od GPT 3.5 u razumevanju prirodnog jezika (MMLU) i razmišljanju zdravog razuma (HellaSwag) i pobedio oba modela u aritmetičkom rezonovanju (GSM8K). Postigao je niže rezultate u opštem znanju i “činjenicama”, ali istraživači veruju da “takve slabosti mogu biti rešene dodatkom pretrage na internetu”, što znači da kada se model poveže na internet, to neće biti toliki problem.
Izbor: Mashable