Компания Microsoft представила последующую версию собственной модели искусственного ума Phi-3 Mini. Она стала первой из трёх маленьких ИИ-моделей, которые софтовый великан планирует выпустить в свет.
Phi-3 Mini с 3,8 миллиардов характеристик учится на наборе данных, который меньше по сопоставлению с массивом, применяемым для обучения огромных языковых моделей (LLM), таких как GPT-4. В текущее время Phi-3 Mini доступна на пасмурной платформе Azure, а еще в Hugging Face и Ollama. В дополнение к этому Microsoft планирует выпустить ИИ-модели Phi-3 Small с 7 миллиардов характеристик и Phi-3 Medium с 14 миллиардов характеристик.
В декабре прошедшего года Microsoft выпустила модель Phi-2, которая работала так же неплохо, как и больше большие модели, такие как Llama 2. Из слов разработчиков, Phi-3 работает лучше предшествующей версии и может давать ответы, родные к тем, что дают модели в 10 раз больше. Корпоративный заместитель президента Microsoft Azure AI Platform Эрик Бойд (Eric Boyd) проговорил, что Phi-3 Mini по своим способностям не уступает таким LLM, как GPT-3.5, и выполнена «в наименьшем форм-факторе».
По сопоставлению с больше большими аналогами, маленькие ИИ-модели обычно дешевле в эксплуатации и лучше работают на индивидуальных устройствах, таких как телефоны и ноутбуки. Сначала этого года СМИ писали, что Microsoft сделала отдельную команду для разработки точно маленьких ИИ-моделей. Вместе с Phi компания также сделала модель Orca-Math, которая нацелена на решение математических задач.
Соперники Microsoft занимаются разработкой маленьких ИИ-моделей, многие из которых нацелены на решение больше обычных задач, таких как обобщение документов либо подмога в написании программного кода. Например, модели Gemma 2B и 7B от Anthropic могут обрабатывать огромные научные статьи с графиками и мгновенно обобщать их, а не так давно выпущенная модель Llama 3 от Meta✴ может применяться для сотворения чат-ботов и помощи в написании кода.
Из слов Бойда, разработчики учили Phi-3 по «учебному плану». Они вдохновлялись тем, как детки обучаются на притчах, читаемых перед сном. Это книжки с больше ординарными словами и структурами предложений, но в то же время часто в их подымаются принципиальные темы. Так как имеющейся литературы для деток при тренировке Phi-3 не хватало, разработчики взяли перечень из больше чем 3000 тем и попросили огромные языковые модели написать дополнительные «детские книжки» намеренно для обучения Phi-3.
Бойд добавил, что Phi-3 легко развивает далее то, чему обучились прошлые итерации ИИ-модели. Если Phi-1 была нацелена на шифрование, а Phi-2 начала обучаться рассуждать, то Phi-3 ещё лучше совладевает с кодировкой и рассуждениями. Но модели семейства Phi-3 владеют некими общими познаниями, они не могут затмить GPT-4 либо другие LLM по широте охвата.