omniture

亞馬遜云科技正式上線Meta Llama 3.2模型

亞馬遜云科技
2024-10-10 10:24 9600

為構建生成式AI應用提供更多選擇

北京2024年10月10日 /美通社/ -- 亞馬遜云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon BedrockAmazon SageMaker中正式可用??蛻粢部梢栽诨贏mazon Trainium和Amazon Inferentia的Amazon Elastic Cloud Compute(Amazon EC2)實例中部署這些模型。

Llama 3.2系列模型保留了此前的成功經(jīng)驗,并進行了全新升級,提供高度差異化的功能更新,包括支持圖像推理的小型和中型視覺大語言模型,以及針對設備端優(yōu)化過的輕量級純文本模型。這些新模型旨在提高使用的便捷性和效率,同時特別注重負責任的創(chuàng)新和安全性。此外,針對內(nèi)容安全分類而微調(diào)的Llama Guard 3 Vision模型,現(xiàn)在也已在Amazon SageMaker JumpStart中可用。

Llama 3.2系列模型優(yōu)勢:

Meta推出的首款多模態(tài)視覺模型:Llama 3.2 11B VisionLlama 3.2 90B Vision

  • Llama 3.2系列中最大的模型。
  • 支持圖像理解和視覺推理的使用場景。
  • 擅長分析視覺數(shù)據(jù),如圖表和圖形,提供更精確的答案和洞察。
  • 適用于圖像標注、視覺問答、圖像與文本檢索、文檔處理、多模態(tài)聊天機器人,以及長篇文本生成、多語言翻譯、編程、數(shù)學和高級推理。

為邊緣和移動設備量身定制:Llama 3.2 1BLlama 3.2 3B

  • 輕量級,純文本模型。
  • 既可在云端又可在本地進行數(shù)據(jù)處理,響應速度極快。
  • 非常適合高度個性化的應用,如文本生成與總結、情感分析、客戶服務應用、文本潤色、多語言知識檢索和移動AI寫作助手。

針對內(nèi)容安全分類進行微調(diào):Llama Guard 3 11B Vision

  • 僅在Amazon SageMaker JumpStart中可用
  • Llama Guard 3 11B Vision可以對大型語言模型的輸入(即提示詞分類)和輸出(即響應分類)進行內(nèi)容安全保護
  • 專為支持圖像推理場景設計,提升了對提示詞輸入中的有害多模態(tài)內(nèi)容(文本和圖像)的檢測能力,以及模型輸出的文本內(nèi)容檢測。

Meta表示,Llama 3.2模型已在超過150個基準數(shù)據(jù)集上進行評估,展現(xiàn)出與領先基礎模型相媲美的競爭力。與Llama 3.1類似,所有Llama 3.2模型均支持128K的上下文長度,并支持涵蓋八種語言的多語言對話使用場景,包括英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語和泰語。

消息來源:亞馬遜云科技
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection