Microsoft je nedavno predstavio novu verziju svog malog modela umjetne inteligencije, Phi-3 Mini, prvi od tri nova modela koje planiraju objaviti.
Phi-3 Mini ima 3,8 milijardi parametara i trenira se na manjem skupu podataka u usporedbi s velikim jezičnim modelima poput GPT-4. Sada je dostupan na platformama poput Azurea, Hugging Facea i Ollame.
Tvrtka planira lansirati Phi-3 Small (sa sedam milijardi parametara) i Phi-3 Medium (s 14 milijardi parametara). Ti parametri predstavljaju koliko složenih uputa model može razumjeti.
U prosincu su predstavili Phi-2, koji je pokazao dobre performanse slične većim modelima poput Llame 2. Phi-3 bi trebao imati još bolje performanse i pružiti odgovore usporedive s modelom deset puta većim od njega.
Inspiracija za obuku ovog modela dolazi iz načina na koji djeca uče iz priča za laku noć, s knjigama koje koriste jednostavnije riječi i strukture rečenica za obradu složenijih tema.
Mali modeli umjetne inteligencije često su povoljniji i bolje se uklapaju na osobnim uređajima poput telefona i prijenosnih računala.
Osim Phi modela, tvrtka je razvila i Orca-Math, model usmjeren na rješavanje matematičkih problema.
Konkurenti Microsofta također imaju svoje male modele umjetne inteligencije, usmjerenih na jednostavnije zadatke poput sažimanja dokumenata ili pomoći kodiranja.
Primjerice, Googleov Gemma 2B i 7B dobri su za izradu jednostavnih chatbotova i rad na jeziku.
Anthropicov Claude 3 Haiku sposoban je čitati guste istraživačke radove s grafikonima i brzo ih sažeti, dok se nedavno objavljeni Llama 3 8B iz Mete može koristiti za chatbotove i pomoć kodiranju.