微軟研究部門12日發表小型語言模型(SLM)Phi-2的評測報告,報告以「小語言模型的驚人力量」為題,指出Phi-2在各類測試中展現良好理解與聽懂語言的能力,表現勝過是它25倍大的對手模型。
微軟在上個月的Microsoft Ignite活動中,首次發表Phi-2模型,執行長納德拉當時特別強調,它以一小部分的訓練資料,就能達最高水準表現。
GPT、或是Google的Gemini等人工智慧(AI)系統,使用的是大型語言模型(LLM),而SLM是以較少的參數和較少的電腦運算來運作。這樣的小型AI模型,雖然無法像LLM生成那麼多的人工智慧,對特定的任務,卻是很有效率。
微軟說:「Phi-2只有27億個參數,在多個總合基準上,表現比有70億個參數的Mistral和130億個參數的Llama-2 都還要好。」Mistral是法國新創Mistral AI公司的產品,Llama-2是臉書母公司Meta的模型。微軟也用Phi-2把Google新發表的AI模型Gemini Nano 2比下去;微軟表示,Phi-2雖然小,但表現與Gemini Nano 2相當甚至更好。
Gemini Nano 2是Google押注多模型LLM,所發表的最新一款可在本地運作的AI系統,預計要取代Google大部分服務中的PaLM-2。
微軟的AI策略不只在開發模型,也為AI特別設計了Maia、Cobalt晶片,這顯示微軟想要全面整合AI與雲端運算。特製的晶片要將AI任務做最佳發揮,支持微軟調和軟硬體能力的願景,準備與Google的Tensor,以及蘋果的M系列晶片,直接競爭。
Phi-2這類小型語言模型可在本地運作,所需的設備等級不必太高,甚至有可能在智慧手機就能運行,一旦成真,新的應用就會更廣。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:微軟小語言模型威力大 完勝比它大25倍的對手
地址:https://www.torrentbusiness.com/article/81144.html