今日舉辦的2024云棲大會上,阿里云CTO周靖人發(fā)布通義千問新一代開源模型Qwen2.5。據(jù)悉,Qwen2.5全系列涵蓋多個尺寸的大語言模型、多模態(tài)模型、數(shù)學(xué)模型和代碼模型,每個尺寸都有基礎(chǔ)版本、指令跟隨版本、量化版本,總計上架100多個模型,其中旗艦?zāi)P蚎wen2.5-72B性能超越Llama 405B。
據(jù)介紹,相比Qwen2,Qwen2.5全系列模型都在18T tokens數(shù)據(jù)上進行預(yù)訓(xùn)練,整體性能提升18%以上,擁有更多的知識、更強的編程和數(shù)學(xué)能力。Qwen2.5-72B模型在MMLU-rudex基準(考察通用知識)、MBPP基準(考察代碼能力)和MATH基準(考察數(shù)學(xué)能力)的得分高達86.8、88.2、83.1。Qwen2.5支持128K的上下文長度,可生成最多8K內(nèi)容,支持中文、英文、法文、西班牙文、俄文、日文、越南文、阿拉伯文等29種以上語言。
其中,72B是Qwen2.5系列的旗艦?zāi)P?,其指令跟隨版本Qwen2.5-72B-Instruct在MMLU-redux、MATH、MBPP、LiveCodeBench、Arena-Hard、AlignBench、MT-Bench、MultiPL-E等權(quán)威測評中表現(xiàn)出色,在多個核心任務(wù)上,以不到1/5的參數(shù)超越了擁有4050億巨量參數(shù)的Llama3.1-405B,繼續(xù)穩(wěn)居“全球最強開源大模型”的位置。
專項模型方面,用于編程的Qwen2.5-Coder和用于數(shù)學(xué)的Qwen2.5-Math都比前代有了實質(zhì)進步。Qwen2.5-Coder在多達5.5T tokens的編程相關(guān)數(shù)據(jù)上作了訓(xùn)練,當天開源1.5B和7B版本,未來還將開源32B版本;Qwen2.5-Math支持使用思維鏈和工具集成推理(TIR)解決中英雙語的數(shù)學(xué)題,本次開源了1.5B、7B、72B三個尺寸和一款數(shù)學(xué)獎勵模型Qwen2.5-Math-RM。
此外,在多模態(tài)模型方面,阿里云還宣布了視覺語言模型Qwen2-VL-72B開源,Qwen2-VL能識別不同分辨率和長寬比的圖片,理解20分鐘以上長視頻,具備自主操作手機和機器人的視覺智能體能力。