omniture

Meta Llama 3基礎(chǔ)模型現(xiàn)已在亞馬遜云科技正式可用

亞馬遜云科技
2024-04-19 15:16 3025

北京2024年4月19日  /美通社/ -- 亞馬遜云科技宣布,Meta剛剛發(fā)布的兩款Llama 3基礎(chǔ)模型Llama 3 8B和Llama 3 70B現(xiàn)已在Amazon SageMaker JumpStart中提供。這兩款模型是一系列經(jīng)過預(yù)訓(xùn)練和微調(diào)的生成文本模型,上下文長度為8k,能夠支持廣泛的用例,并在推理、代碼生成和指令跟隨等方面有所改進??蛻艨梢栽贏mazon SageMaker JumpStart中輕松發(fā)現(xiàn)、部署Llama 3基礎(chǔ)模型,并運行推理。

Llama 3提供兩種參數(shù)大小的模型——8B和70B,上下文長度為8k,能夠支持廣泛的用例。Llama 3使用了僅含解碼器的Transformer架構(gòu),以及高達128k規(guī)模的新型分詞器,極大提升了模型的性能。此外,Meta改進的訓(xùn)練后處理程序大幅降低了誤拒率,提高了模型響應(yīng)的一致性和多樣性。

Amazon SageMaker JumpStart提供預(yù)訓(xùn)練的模型、內(nèi)置算法和預(yù)構(gòu)建的解決方案,幫助客戶快速開始機器學(xué)習(xí)項目。Amazon SageMaker JumpStart能夠幫助客戶從廣泛的公開可用基礎(chǔ)模型中進行選擇,并將基礎(chǔ)模型部署到專用的SageMaker實例中,這些實例置于網(wǎng)絡(luò)隔離的環(huán)境,并可以使用SageMaker進行模型訓(xùn)練和部署。

客戶現(xiàn)在可以在Amazon SageMaker Studio中通過幾次點擊或通過SageMaker Python SDK編程方式發(fā)現(xiàn)并部署Llama 3模型,還可以利用SageMaker Pipelines、SageMaker Debugger或容器日志等功能,提升模型性能并實施MLOps控制。此外,該方式部署的模型始終處在亞馬遜云科技的安全環(huán)境下,由客戶的VPC控制,以確保數(shù)據(jù)安全。

Meta Llama 3基礎(chǔ)模型現(xiàn)已在Amazon SageMaker Studio的美東(北弗吉尼亞州)、美東(俄亥俄州)、美西(俄勒岡州)、歐洲(愛爾蘭)和亞太(東京)區(qū)域提供部署和推理服務(wù)。

消息來源:亞馬遜云科技
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection