omniture

浪潮信息劉軍:AI新時代,智算力就是創(chuàng)新力

2022-12-20 11:59 3796

北京2022年12月19日 /美通社/ -- 浪潮信息副總裁、浪潮AI&HPC產(chǎn)品線總經(jīng)理劉軍在近日舉行的量子位“MEET2023智能未來大會”上發(fā)表了主題演講《AI新時代,智算力就是創(chuàng)新力》。

在該大會公布的“2022人工智能年度評選”榜單上,浪潮信息獲評為“2022年度人工智能領(lǐng)航企業(yè)”,劉軍獲評為“2022年度人工智能領(lǐng)軍人物”。


以下為劉軍在MEET2023智能未來大會的演講實錄:

為什么說智算力就是創(chuàng)新力?

當今在人工智能前沿領(lǐng)域的大模型,就是在智算算力驅(qū)動下重大創(chuàng)新的典型,比如GPT-3,浪潮“源1.0”等等,這些大模型發(fā)展的背后是算力的極大支撐。 

我們提出用“算力當量”來對AI任務(wù)所需算力總量進行度量,單位是PetaFlops/s-day也就是PD,即用每秒千萬億次的計算機完整運行一天消耗的算力總量(PD)作為度量單位。一個任務(wù)需要多少PD的計算量,就把它視為這個任務(wù)的“算力當量”。GPT-3的算力當量是3640個PD,源1.0是2457億的參數(shù)的大模型,它的算力當量是4095個PD。

當前元宇宙非常關(guān)注的數(shù)字人的建模和渲染方面,如果要做一個栩栩如生的人物形象的創(chuàng)建和渲染,以《阿麗塔:戰(zhàn)斗天使》來舉例,它平均每一幀需要花100個小時來渲染,總共這部影片的渲染計算使用了4.32億小時的算力。

在自動駕駛領(lǐng)域,特斯拉創(chuàng)建了DOJO的智算系統(tǒng),用于感知模型的訓練和仿真。它的FSD全自動駕駛系統(tǒng)的融合感知模型,訓練消耗的算力當量是500個PD。

在備受關(guān)注的AI+Science領(lǐng)域、蛋白質(zhì)的結(jié)構(gòu)預測、分子動力學的模擬、流體力學的仿真,它不僅融合了傳統(tǒng)的HPC計算也融合了當今的AI計算。比如說,經(jīng)常被提及的AlphaFold2,它的訓練消耗的算力當量是300個PD。與此同時,為AlphaFold2訓練所做的數(shù)據(jù)準備,需要花費200M CPU-hours HPC算力。

我們可以確切地認識到,今天在AI領(lǐng)域的眾多創(chuàng)新背后離不開智算力的支撐,可以說智算力就是創(chuàng)新力。


接下來和大家來分享當前智算發(fā)展的三個重要的趨勢:算力多元化、模型巨量化以及元宇宙。

算力多元化需要軟硬一體的支撐平臺

第一,算力多元化。Henessy和Patterson在幾年前的《計算機架構(gòu)的新黃金時代》中提出了特定領(lǐng)域的體系架構(gòu)Domain Specific Architectures(DSAs)的概念,這也可以用來解釋為什么今天我們會看到這么多的多元算力芯片。

在中國,市場上有十幾種的CPU芯片,有將近一百種AI算力的芯片。為什么會有這樣的需求?今天算力的應用場景是多元化的,不同的場景需要不同的計算精度類型和計算特征。比如說,高性能計算里面可能會需要FP64雙精度計算,AI訓練需要使用數(shù)字范圍更大、精度低的16位浮點計算,AI推理可以使用INT8或者INT4格式。而為適應這些計算的特點,需要我們引入多元的芯片來進行支撐。如何從軟件和硬件上來應對這樣的挑戰(zhàn)?浪潮信息認為,重點是從系統(tǒng)的硬件平臺和軟件角度來進行相應的創(chuàng)新支撐。


首先是在硬件方面的系統(tǒng)支持,當今AI計算用的非常多的還是采用英偉達GPU的AI服務(wù)器。但是對于其他品牌的AIPU來說,要用什么樣的一個AI服務(wù)器系統(tǒng)來支撐呢?浪潮信息打造了全球首款開放加速的AI服務(wù)器,在一個系統(tǒng)里能夠支持8顆國內(nèi)最高性能的AI芯片進行高速互聯(lián),從而能夠完成大規(guī)模的模型訓練所需要的算力。芯片之間使用了開放加速的接口標準,芯片間可以進行高速通信。今天,這個系統(tǒng)已經(jīng)可以支持多個品牌的國內(nèi)最高端的GPU和AIPU,并且已經(jīng)在眾多的客戶場景里面實現(xiàn)了落地。同時,它還支持先進的液冷技術(shù),使得我們構(gòu)建的AI算力集群的PUE會低于1.1。

作為智算中心的核心,如何來調(diào)度多元的算力?這是一個平臺軟件方面的挑戰(zhàn),浪潮為此推出了業(yè)界首款智算中心算力調(diào)度軟件AIStation,實現(xiàn)了對異構(gòu)AI芯片進行標準化與流程化管理,不僅能夠充分發(fā)揮多元異構(gòu)芯片的性能潛力,并且能夠提升智算中心的整體效能。從基本的接入適配到業(yè)務(wù)應用在異構(gòu)算力的使用優(yōu)化,AIStation提供了完備的工具與解決方案,與傳統(tǒng)開源方案相比,芯片接入穩(wěn)定性方面提升30%,減少接入工作量90%以上。標準化、流程化也使得AIStation在芯片管理種類上達到了業(yè)界前列,已經(jīng)支持了30多款國內(nèi)外最頂尖的AI芯片,包括X86和ARM等CPU芯片、FPGA芯片,也包括今天應用非常廣泛的GPU和AIPU,例如像英偉達的GPU系列,以及各類國產(chǎn)AIPU等等。

我們做了眾多的實踐落地,位于宿州的淮海智算中心采用全球領(lǐng)先的“E級AI元腦”智算架構(gòu),通過開放多元的系統(tǒng)架構(gòu),在底層基礎(chǔ)設(shè)施層支持通用處理器、通用加速處理器、專用芯片、可編程芯片等,通過AIStation實現(xiàn)了異構(gòu)算力的調(diào)度,提供FP64、FP32、FP16、INT8等多種精度的計算類型支持,并支持國內(nèi)外主流的深度學習的框架、數(shù)據(jù)庫、數(shù)據(jù)集以降低用戶的學習成本。

大模型成為AIGC算法引擎

第二,大模型。大模型正在成為AIGC的算法引擎,今天大家看到的DALL?E或者Stable Diffusion的背后都是大模型在驅(qū)動。大模型使得AI從五年前的”能聽會看”,走到今天“能思考、會創(chuàng)作”,下一步甚至于到“會推理、能決策”的進步。但是我們知道大模型帶給我們的是在算力方面巨大的挑戰(zhàn)。如何能夠把大模型的能力交付到眾多的中小企業(yè)中,幫助他們實現(xiàn)智能化的轉(zhuǎn)型,是我們今天要去解決的重要課題,所以在這方面我們認為Model as a Service(MaaS)是比較好的一種方式。

今天,在大模型的能力加持下,AIGC,包括文本生成、文生圖以及虛擬數(shù)字人等應用都會快速的進入到商業(yè)化階段。

“源1.0”是浪潮去年推出的中文語言巨量模型,擁有2457億參數(shù),在眾多的評測里面表現(xiàn)出了非常優(yōu)異的成績。團隊圍繞深度學習框架、訓練集群IO、通信開展了深入優(yōu)化,構(gòu)建了面向大模型的軟硬件協(xié)同體系結(jié)構(gòu),訓練平臺的算力效率達到45%,這遙遙領(lǐng)先于GPT-3、MT-NLG這樣的大模型。同時,通過在AI編譯器與深度學習推理框架上的優(yōu)化,“源”已經(jīng)實現(xiàn)了對多元AI芯片的支持。

下面分享幾個基于“源1.0”構(gòu)建的實際應用案例:

第一個案例是AI劇本殺。劇本殺是大家比較熟悉的游戲,一位開發(fā)者基于“源1.0”構(gòu)建了一個AI角色來和人類玩劇本殺,玩到最后其他人類玩家都很難察覺到自己是在和AI一起玩劇本殺,因為AI在這里面所表現(xiàn)出來的場景理解能力、目的性對話能力是我們在傳統(tǒng)的AI算法上面很難見到的。目前項目已經(jīng)在GitHub上開源,大家感興趣可以嘗試。

第二個案例,上海一個開發(fā)者群體基于“源1.0”構(gòu)建了數(shù)字社區(qū)助理,類似于給我們的居委會打造了一個教練員,通過讓AI模擬來居委會咨詢的居民,提升社區(qū)工作者應對居民突發(fā)狀況服務(wù)的能力,這種將大模型反向應用于教培領(lǐng)域的案例給AI發(fā)展帶來了更多想象空間。


最近,大家都在討論ChatGPT,簡單來說它就是基于大模型的面向長文本、多輪對話的AIGC應用。其實我們基于“源1.0”也開發(fā)了公文寫作助手?,F(xiàn)在大家希望有個助手來協(xié)助寫總結(jié)報告、學習體會,所以我們希望打造一個寫作助手來幫助大家進行長本文創(chuàng)作。其中,我們突破了可控文本內(nèi)容生成技術(shù),解決了長文本內(nèi)容偏移問題,生成文本的語義一致性高達96%。這樣的優(yōu)化使得我們的中文寫作助手能夠帶來非常驚艷的效果,目前我們的產(chǎn)品處于內(nèi)測階段,歡迎大家來申請使用。

我們把“源”大模型應用在浪潮自己的業(yè)務(wù)上,賦能自身業(yè)務(wù)智能化轉(zhuǎn)型。浪潮信息是中國最大、全球第二的服務(wù)器廠商。我們擁有一個覆蓋非常廣泛的客戶服務(wù)系統(tǒng),傳統(tǒng)的智能客服更多是基于規(guī)則和提煉的知識來構(gòu)建的問答系統(tǒng),這樣的問答系統(tǒng)大部分情況下是不能幫客戶滿意地解決問題的。今天基于“源1.0”構(gòu)建的浪潮信息智能客服可以進行長文本的內(nèi)容生成,能夠持續(xù)地多輪對話,同時非常重要的是它不僅僅是基于知識規(guī)則而構(gòu)建的問答系統(tǒng),它可以自己去閱讀和服務(wù)器相關(guān)的產(chǎn)品技術(shù)文檔,我們說它可謂是服務(wù)器的“服務(wù)大腦”,在它的支撐下,浪潮信息的客戶服務(wù)效率得到了大幅的提升,這個項目榮獲了《哈佛商業(yè)評論》鼎革獎,即年度新技術(shù)突破獎。

元宇宙需要強大的算力基礎(chǔ)設(shè)施

第三,元宇宙。大家可能會驚奇元宇宙需要算力嗎?我們告訴大家,元宇宙非常需要算力。元宇宙的構(gòu)建有四個大的作業(yè)環(huán)節(jié),協(xié)同創(chuàng)建、高精仿真、實時渲染、智能交互,每一個環(huán)節(jié)上面都需要大量算力做支撐。比如說,在高精仿真的階段,要實現(xiàn)元宇宙場景中逼真的、符合物理定律的仿真,不僅需要AI計算,同時還需要HPC算力。在圖形渲染環(huán)節(jié),不僅傳統(tǒng)的光線追蹤、路徑追蹤等圖像渲染算法需要大量算力,當今基于AI的DLSS等算法也需算力支撐。到了最后的智能交互環(huán)節(jié),今天所看到的數(shù)字人、多輪的語言交互等等,它背后都是基于算力才得以實現(xiàn),這就是為什么說元宇宙需要強大的算力支持。

今年浪潮信息推出的MetaEngine元宇宙服務(wù)器就是為了應對這樣的算力挑戰(zhàn),有興趣的可以看下我們?nèi)绾位贛etaEngine來創(chuàng)建虛擬數(shù)字人和數(shù)字孿生的全過程。


為了推動了元宇宙的快速落地,上個月青田人民政府和浪潮信息和我們合作伙伴谷梵科技一起,簽約建設(shè)國內(nèi)首個元宇宙算力中心,用于支撐在青田、浙江乃至于長三角在元宇宙的數(shù)字空間創(chuàng)建、數(shù)字產(chǎn)業(yè)發(fā)展,支撐數(shù)字經(jīng)濟、數(shù)實融合的發(fā)展。

我的演講到此結(jié)束。謝謝大家!

消息來源:浪潮信息
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection