omniture

源2.0大模型適配LLaMA-Factory框架 微調(diào)訓(xùn)練快捷高效

2024-01-18 18:01 4075

北京2024年1月18日 /美通社/ -- 近日,2.0開源大模型與LLaMA-Factory框架完成全面適配,用戶通過LLaMA-Factory,即可快捷、高效地對不同參數(shù)規(guī)模的源2.0基礎(chǔ)模型進(jìn)行全量微調(diào)及高效微調(diào),輕松實(shí)現(xiàn)專屬大模型。


LLM(大語言模型)微調(diào),是指在大模型的基礎(chǔ)上,針對特定任務(wù)或領(lǐng)域進(jìn)行調(diào)整和優(yōu)化,以提升模型的性能和表現(xiàn),有效的微調(diào)方案與工具也正是解決基礎(chǔ)大模型落地私有領(lǐng)域的一大利器?;陂_源大模型的微調(diào),不僅可以提升LLM對于指令的遵循能力,也能通過行業(yè)知識的引入,來提升LLM在專業(yè)領(lǐng)域的知識和能力。

當(dāng)前,業(yè)界已經(jīng)基于LLM開發(fā)及實(shí)踐出了眾多的微調(diào)方法,如指令微調(diào)、基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF,Reinforcement Learning from Human Feedback)、直接偏好優(yōu)化(DPO,Direct Preference Optimization)等。以高效微調(diào)(PEFT,Parameter-Efficient Fine-Tuning)方案為例,可有效解決內(nèi)存和計算資源的制約,通過LoRA、QLoRA等高效微調(diào)技術(shù),在單張GPU上完成千億參數(shù)的微調(diào)訓(xùn)練。因此,一個能夠?qū)崿F(xiàn)上述功能的簡潔、高效且易用的微調(diào)框架正是開展LLM微調(diào)工作的最佳抓手。

LLaMA-Factory是零隙智能(SeamLessAI)開源的低代碼大模型訓(xùn)練框架,旨在為開發(fā)者提供可視化訓(xùn)練、推理平臺及一鍵配置模型訓(xùn)練。基于LLaMA-Factory, 用戶可輕松選擇業(yè)界最全面的微調(diào)方法和優(yōu)化技術(shù),通過使用私域數(shù)據(jù),或是LLaMA-Factory內(nèi)置的中文數(shù)據(jù)集(GPT-4優(yōu)化后的alpaca中文數(shù)據(jù)集、ShareGPT數(shù)據(jù)集和llama-factory提供的模型認(rèn)知數(shù)據(jù)集),對源2.0進(jìn)行輕松微調(diào),基于有限算力完成領(lǐng)域大模型的定制開發(fā)。實(shí)測數(shù)據(jù)顯示,在一臺搭載8顆GPU的主流AI服務(wù)器NF5468M7,7小時內(nèi)即可實(shí)現(xiàn)千億模型(Yuan2.0- 102B)的高效指令微調(diào),10分鐘即可完成Yuan2.0-2B參數(shù)的指令微調(diào),輕松實(shí)現(xiàn)即調(diào)即用。


Step by Step 

單機(jī)即可實(shí)現(xiàn)千億參數(shù)模型微調(diào)

  • Step 1: 容器化環(huán)境部署,數(shù)條指令即可輕松完成
  • Step 2: 開源可商用Yuan2.0 Huggingface模型獲取
  • Step 3: 一鍵"啟動"web UI服務(wù)
  • Step 4: 構(gòu)建LLM助手-可視化界面配置完成Yuan2.0微調(diào)
  • Step 5: 搭建我們的私有LLM助手

GitHub項(xiàng)目地址

https://github.com/IEIT-Yuan/Yuan-2.0/blob/main/docs/Yuan2_llama-factory.md

消息來源:浪潮信息
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection