omniture

NPCon2023 AI 模型技術(shù)與應(yīng)用峰會首站在北京成功舉辦

CSDN
2023-08-14 15:31 3107

北京2023年8月14日 /美通社/ -- 上世紀(jì)的"廣告教父"大衛(wèi)·奧格威在世時一直營銷著一個概念:"在現(xiàn)代商業(yè)世界,如果你不能將所創(chuàng)造的東西賣出去,只成為一個富有創(chuàng)意的思想家是毫無用處的。" 

回顧歷史上的每一次變遷,從學(xué)術(shù)創(chuàng)意到切實(shí)部署的軌跡勾勒出進(jìn)步的藍(lán)圖,有如從概念到商業(yè)化的過程。隨著 GPT 等大模型技術(shù)的高速成長和普及,模型的開源資源、部署訓(xùn)練架構(gòu)、算力成本成為大模型應(yīng)用落地和企業(yè)盈虧 ROI 的關(guān)鍵分水嶺,重要性不低于模型精度。

繼今年 3 月的首屆 NPCon 大會探討了 ChatGPT 對技術(shù)社區(qū)的影響之后,8 月 12 日,CSDN、《新程序員》聯(lián)合主辦的"新程序員大會(NPCon):AI 模型技術(shù)與應(yīng)用峰會" 于北京格蘭云天大酒店再度揭幕。

本次峰會主題圍繞「全鏈路搭建 AI 研發(fā)底座」展開,是 CSDN 今年推出的"AI 主題季"系列活動之一。峰會活動分別會在北京、上海、深圳、成都四城舉行,北京站現(xiàn)場邀請到千芯科技董事長陳巍,Dify.AI 創(chuàng)始人張路宇,美團(tuán)基礎(chǔ)研發(fā)平臺視覺智能部軟件開發(fā)工程師張旭,浪潮信息人工智能與高性能應(yīng)用軟件部 AI 架構(gòu)師Owen Zhu,CSDN 研發(fā)副總監(jiān)梁灝,圍繞算力資源運(yùn)維、模型訓(xùn)練部署、AI 能力構(gòu)建等方面,為不同規(guī)模階段的企業(yè)、團(tuán)隊、個人開發(fā)者,提供如何構(gòu)建 AI 基礎(chǔ)設(shè)施、實(shí)現(xiàn)工程落地,提供全鏈路的建議和方案。

會議現(xiàn)場
會議現(xiàn)場

以下是本次"AI 模型技術(shù)與應(yīng)用峰會"的演講精華。

部署就是大模型的成敗關(guān)鍵

首先,知乎科技領(lǐng)域答主@陳巍談芯、千芯科技董事長、人工智能算法-芯片協(xié)同設(shè)計專家陳巍帶來了分享《大模型涌現(xiàn),如何部署訓(xùn)練架構(gòu)與算力芯片》。他的核心觀點(diǎn)在于強(qiáng)調(diào)大模型訓(xùn)練和部署過程中的技術(shù)優(yōu)化、隱私保護(hù)、成本效益以及未來芯片發(fā)展的重要性。

知乎科技領(lǐng)域答主“陳巍談芯”、千芯科技董事長 陳巍
知乎科技領(lǐng)域答主“陳巍談芯”、千芯科技董事長 陳巍

陳巍指出,大模型的本質(zhì)是對知識的壓縮和對輸入的反饋,一個常見大模型的生存周期分為模型的計劃、高質(zhì)量數(shù)據(jù)的收集、模型的建模和部署三個階段。其中,部署是大模型成敗和能否盈利的關(guān)鍵。

他認(rèn)為,在大模型訓(xùn)練和部署中,使用并行化技術(shù)(如數(shù)據(jù)并行、模型并行、張量并行)可以充分利用計算資源,提高效率。他強(qiáng)調(diào)通過優(yōu)化通信,減少數(shù)據(jù)傳輸冗余,可以降低計算芯片之間的通信成本,從而提升整體訓(xùn)練效率。

陳巍關(guān)注大模型部署中的隱私問題,特別是個性化數(shù)據(jù)和敏感信息的保護(hù)。他介紹了隱私保護(hù)技術(shù),如將個人數(shù)據(jù)合并以降低隱私風(fēng)險,并限制模型輸出中的敏感信息。陳巍強(qiáng)調(diào),對于涉及個人隱私和敏感信息的部署,必須采取適當(dāng)?shù)碾[私保護(hù)措施。

此外,陳巍提出了不同的方法來降低大模型訓(xùn)練和部署的成本。他介紹了模型訓(xùn)練成本的評估方法,包括如何通過數(shù)據(jù)大小和訓(xùn)練條件來優(yōu)化成本。他還探討了不同算力芯片(CPU、GPU、DSA、TPU)的應(yīng)用,以及如何通過合理的策略來降低成本。

最后,陳巍強(qiáng)調(diào)未來芯片的發(fā)展可能對大模型訓(xùn)練和部署產(chǎn)生影響,特別是在現(xiàn)有 GPU 生態(tài)受到限制的情況下。他認(rèn)為在不同的算力芯片中,TPU 和 DSA 可能逐漸代替?zhèn)鹘y(tǒng)的 GPU 應(yīng)用。陳巍呼吁采取合適的技術(shù)策略和隱私保護(hù)措施,以降低成本、提高效率,并關(guān)注未來芯片趨勢對于人工智能產(chǎn)業(yè)的影響。

 Agent 是大模型未來最有想象力、最有前景的方向

"Agent 是 LLM(大語言模型)的最有前景的方向。一旦技術(shù)成熟,短則幾個月,長則更久,它可能就會創(chuàng)造出超級個體。這解釋了我們?yōu)楹螌﹂_源模型和 Agent 興奮,即便投產(chǎn)性不高,但是我們能想象自己有了 Agent 之后就可以沒日沒夜地以百倍效率做現(xiàn)在手上的工作。未來可能會有 Agent 網(wǎng)絡(luò),每家公司甚至每個人都有自己的Agent,互相調(diào)用形成網(wǎng)絡(luò)效應(yīng),帶來繁榮的生態(tài)。",Dify.AI 創(chuàng)始人張路宇在主題演講中如是說道。

張路宇指出,開發(fā)者在應(yīng)用大模型時常常面臨向量數(shù)據(jù)庫、Agent編排等問題,并且許多開發(fā)者在初期都需要解決相似的難題,導(dǎo)致效率低下。盡管有大量應(yīng)用和模型,實(shí)際投產(chǎn)的應(yīng)用比例只有 5% 左右。

由此,張路宇強(qiáng)調(diào)了自動代理(Auto Agent)在推理模型、編程范式和應(yīng)用構(gòu)建方面的重要性和挑戰(zhàn)。他提出了"規(guī)劃、記憶、工具的使用和總結(jié)與反思"這四個關(guān)鍵要素來解釋自動代理的推理過程。他強(qiáng)調(diào)了規(guī)劃過程的重要性,將任務(wù)分解為多個步驟,并介紹了長期記憶和短期記憶的概念,探討如何適時調(diào)用工具、合理使用人類輸入、進(jìn)行多輪對話,并強(qiáng)調(diào)推理性能、透明性和成本控制等方面的挑戰(zhàn)。

張路宇提到 LangChain 作為一個學(xué)習(xí)大模型應(yīng)用開發(fā)的教科書,提供了抽象概念和工具。但他也指出了 LangChain 的局限性,特別是在工具和集成鍵方面的脆弱性,以及不適合非技術(shù)人員的參與。他說道:"每個人都要學(xué)習(xí) LangChain,但最終都會丟掉它。"

演講中,張路宇引入了 MetaPrompt 的概念,將其描述為一種結(jié)構(gòu)化的提示方式,可引導(dǎo)模型進(jìn)行復(fù)雜的推理和行動。他指出,MetaPrompt 是引導(dǎo)大模型執(zhí)行任務(wù)的關(guān)鍵工具,將用戶問題、前期反思、工具調(diào)用和模式以特定格式描述成提示。

張路宇認(rèn)為,面對大模型的開發(fā),傳統(tǒng)的編程范式已經(jīng)不再適用。他提出了一種新的編程范式,即 "prompt first"。在大模型應(yīng)用開發(fā)中,傳統(tǒng)的需求分析和 API 文檔設(shè)計可能不再適用。相反,他強(qiáng)調(diào)在設(shè)計應(yīng)用之前應(yīng)先考慮模型的輸入提示(prompt),并用這種方式引導(dǎo)模型執(zhí)行任務(wù)。

如何高效推理,

仍是大模型時代亟需解決的挑戰(zhàn)

緊接著,美團(tuán)基礎(chǔ)研發(fā)平臺視覺智能部軟件開發(fā)工程師張旭在發(fā)表《美團(tuán)視覺 GPU 推理服務(wù)部署架構(gòu)優(yōu)化的實(shí)踐》主題演講中表示,GPU 利用率低的問題正日益凸顯,其核心癥結(jié)在于模型服務(wù)存在性能瓶頸。通過拆分微服務(wù)、優(yōu)化部署架構(gòu)以及綜合考慮多個優(yōu)化層面,將模型 CPU 和 GPU 運(yùn)算部分解耦,能實(shí)現(xiàn)模型部署工程的性能優(yōu)化,讓服務(wù)性能成倍提升。

隨著技術(shù)應(yīng)用在線服務(wù)推理資源不斷增加,GPU 推理資源的使用比例逐年上升,但 GPU 的利用率卻一直在被浪費(fèi)。張旭透露,業(yè)界的真實(shí) GPU 利用率哪怕樂觀估計也只有 20% 左右。造成服務(wù) GPU 利用率低下的重要原因之一是模型服務(wù)本身存在性能瓶頸,在極限壓力情況下也無法充分利用 GPU 資源。

乍一看,模型部署十分完善,事實(shí)上,當(dāng)前的模型優(yōu)化不徹底,部分算子無法優(yōu)化加速,多模型的串聯(lián)部署也很困難。在 GPU 異構(gòu)計算體系下,模型中 CPU 和 GPU 運(yùn)算之間還存在相互影響的問題。張旭指出,這種影響會導(dǎo)致 CPU 和 GPU 無法同時充分利用,從而降低了推理服務(wù)的整體性能。

為此,張旭提出了解決 CPU/GPU 互相影響問題的一種優(yōu)化方法,即將模型中的 CPU 和 GPU 運(yùn)算部分分別拆分為獨(dú)立的微服務(wù)。他通過實(shí)際案例演示,將預(yù)處理和后處理部分獨(dú)立到通用 CPU 服務(wù),主干網(wǎng)絡(luò)部分部署在 GPU 上,從而實(shí)現(xiàn)了更高的 GPU 利用率和整體性能提升。

在復(fù)雜視覺場景下,多模型的組合會引發(fā)更嚴(yán)重的 GPU/CPU 影響問題。張旭通過實(shí)例說明了針對多模型組合的場景,同樣可以采用 CPU/GPU 拆分部署的方式,將不同模型部分分別部署,以解決性能瓶頸問題。他強(qiáng)調(diào)不同優(yōu)化層面之間的相互影響和迭代優(yōu)化的重要性,以實(shí)現(xiàn)性能的持續(xù)提升。

算力是驅(qū)動大模型創(chuàng)新和進(jìn)步的基石

在現(xiàn)代人工智能領(lǐng)域,算力扮演著推動創(chuàng)新、實(shí)現(xiàn)突破的核心驅(qū)動力。浪潮信息人工智能與高性能應(yīng)用軟件部 AI 架構(gòu)師Owen以《AI 大模型算力系統(tǒng)分析》為主題,強(qiáng)調(diào)了算力、算法、數(shù)據(jù)和系統(tǒng)架構(gòu)等多個方面的綜合優(yōu)化對于大規(guī)模模型訓(xùn)練的成功至關(guān)重要。

浪潮信息早在2020年就開始布局和投入AI大模型技術(shù)的研發(fā),Owen從"源"大模型的研發(fā)歷程切入,講解了大模型研發(fā)過程中的數(shù)據(jù)、算力和算法等各方面的挑戰(zhàn)。并指出國內(nèi)企業(yè)在上半年對算力的需求增加,尤其在大型模型訓(xùn)練方面。他強(qiáng)調(diào)了 GPT-3 和 GPT-4 等模型的重要性,同時提到了中國企業(yè)在這一領(lǐng)域的競爭和發(fā)展前景。強(qiáng)調(diào)了算力投入是評估模型能力一個重要指標(biāo)。

隨后,Owen探討了大模型研發(fā)過程中預(yù)訓(xùn)練、微調(diào)和模型推理等環(huán)節(jié)的核心關(guān)鍵因素和主要計算特征。并強(qiáng)調(diào),未來大模型的產(chǎn)業(yè)化發(fā)展是一套復(fù)雜的系統(tǒng)工程,構(gòu)建高效穩(wěn)定的算力平臺是核心要義,成熟的算法、數(shù)據(jù)產(chǎn)業(yè)鏈,配套工具鏈及豐富的生態(tài)鏈?zhǔn)顷P(guān)鍵因素,我們亟需以系統(tǒng)的方式尋找最優(yōu)解。

用好工具,人人都是 AI 應(yīng)用開發(fā)者

在閃電演講環(huán)節(jié),CSDN 研發(fā)副總監(jiān)梁灝先是介紹了自己的經(jīng)歷:將開源 iView 從 0 做到 20,000 Star,最大的感受便是好的工具能讓開發(fā)更簡單。而他要介紹的 InsCode,正是這樣的平臺。

InsCode 是 CSDN 于 2023 年推出的一站式應(yīng)用開發(fā)工具和服務(wù)平臺。它在瀏覽器中實(shí)現(xiàn)從編碼到部署的完整過程。僅僅在四個多月內(nèi),InsCode 就吸引了超過 5 萬注冊用戶,其中一半以上為開發(fā)用戶。累計創(chuàng)建了 4 萬多個項目,其中許多項目已經(jīng)公開發(fā)布或部署到社區(qū)。梁灝指出,InsCode 徹底改變了傳統(tǒng)的開發(fā)流程,使用戶能夠在線上完成應(yīng)用的開發(fā)、部署、運(yùn)維和運(yùn)營,從而使應(yīng)用開發(fā)變得更加簡單。

梁灝強(qiáng)調(diào)了 InsCode 在 AI 時代的地位,尤其是其面向開發(fā)者的 AI 服務(wù)。他提到,專業(yè)程序員可以借助 InsCode 提高開發(fā)效率和創(chuàng)造能力,普通程序員可以通過生成式 AI 工具減輕編碼工作,而泛開發(fā)者甚至可以利用模板和自然語言提交需求,快速開發(fā)多樣化的應(yīng)用。正如 CSDN 的 Slogan:人人都是開發(fā)者。

最后,InsCode 聯(lián)合創(chuàng)新工場盛大召開 AI 應(yīng)用編程大賽,目前活動已處于啟動階段,歡迎讀者們訪問 inscode.net 進(jìn)行報名或者參賽,贏取豐厚獎金。

開談:AI 時代的研發(fā)新范式

與開發(fā)者能力演進(jìn)

在本次論壇的《開談》環(huán)節(jié),由 CSDN 人工智能技術(shù)編輯團(tuán)隊主持,華為諾亞方舟實(shí)驗室技術(shù)專家董振華,投研機(jī)構(gòu) INP(Infra Native Partners)創(chuàng)始人丁寧,CodeGeeX 團(tuán)隊算法專家沈磊,聆心智能創(chuàng)始人& CTO 鄭叔亮作為嘉賓的圓桌對話正式展開。

本次《開談》的主題為"AI 時代的研發(fā)新范式與開發(fā)者能力演進(jìn)",五位技術(shù)專家聚焦于過去一年內(nèi) AI 技術(shù)和模型的快速發(fā)展,特別是大模型的涌現(xiàn)以及與模型開發(fā)相關(guān)的基礎(chǔ)設(shè)施和應(yīng)用技術(shù)的突破,探討大模型的未來走向,未來編程語言和開發(fā)范式的影響,以及如何通過工具提高效率、學(xué)習(xí) AI 知識和技能并在競爭激烈的領(lǐng)域中保持競爭力。

《開談》:AI時代的研發(fā)新范式與開發(fā)者能力演進(jìn)
《開談》:AI時代的研發(fā)新范式與開發(fā)者能力演進(jìn)

"模型團(tuán)隊?wèi)?yīng)該更關(guān)注模型效果,也要努力做具體應(yīng)用。擴(kuò)大模型參數(shù)量至兩倍所產(chǎn)生的效果,遠(yuǎn)高于對其做加倍預(yù)訓(xùn)練所呈現(xiàn)的效果。夯實(shí)大模型 L0 層能力、對行業(yè)模型進(jìn)行優(yōu)化是我們的努力方向。",華為諾亞方舟實(shí)驗室技術(shù)專家董振華分享道。

董振華是研究者,也是《新程序員》的忠實(shí)讀者。他從研究者的角度強(qiáng)調(diào)開源在追趕人工智能技術(shù)方面的重要作用,認(rèn)為開源可以幫助解決人工智能技術(shù)以及大模型的問題,使其更好地落地和應(yīng)用。未來,不同規(guī)模階段的企業(yè)、團(tuán)隊和開發(fā)者都應(yīng)該擁抱開源,將先進(jìn)的技術(shù)借鑒于開源社區(qū),從而形成更有條理的發(fā)展模式,不僅僅是商業(yè)公司的行為。

當(dāng)談及大模型生態(tài)的問題時,投研機(jī)構(gòu) INP(InfraNative Partners)創(chuàng)始人丁寧回答:"大模型生態(tài)從商業(yè)考慮,相比面向具體任務(wù)做模型 Finetune,要更關(guān)注其通用能力;與過去模型參數(shù)內(nèi)僅是特征提取器不同,現(xiàn)在還包含意識形態(tài)、價值觀等要素給大模型生態(tài)商業(yè)化帶來更多不確定性。"

丁寧從不同類型的創(chuàng)業(yè)公司角度,分析了商業(yè)應(yīng)用與研究階段的優(yōu)先級問題。他將創(chuàng)業(yè)公司分為幾類,包括做 Foundation Model 的、做 Fine-Tuning 的以及使用平臺集成的。丁寧認(rèn)為, Foundation Model 階段,重點(diǎn)在于搭建可擴(kuò)展的算力集群、高性能網(wǎng)絡(luò)以及高性能數(shù)據(jù)存儲基礎(chǔ)設(shè)施,設(shè)計精巧的逼近實(shí)驗以求盡可能高的提高單次模型訓(xùn)練ROI,力求用最小的成本換取最大的實(shí)驗進(jìn)展。

Fine-Tuning階段,重點(diǎn)在于如何將大語言模型應(yīng)用于特定領(lǐng)域,并解決訓(xùn)練和數(shù)據(jù)管理等基礎(chǔ)設(shè)施問題,但更重要的是建立數(shù)據(jù)的內(nèi)循環(huán)與業(yè)務(wù)的外循環(huán)。如果不去接觸模型訓(xùn)練,他強(qiáng)調(diào)了應(yīng)用工具和服務(wù)的重要性,如何將大語言模型與現(xiàn)有技術(shù)結(jié)合,提供工具的同時也要提供持續(xù)的服務(wù),例如合規(guī)、安全監(jiān)控、線上業(yè)務(wù)持續(xù)性保障等實(shí)際應(yīng)用價值。

CodeGeeX 團(tuán)隊算法專家沈磊則強(qiáng)調(diào)了在使用大模型方面的實(shí)踐建議和團(tuán)隊協(xié)作的重要性:"我的建議是要擁抱新的工具和功能。對于個人開發(fā)者或者公司來說,使用輔助工具可以顯著提升編程效率,甚至提高 10% 的效率對于一個人來說也是很可觀的進(jìn)步。當(dāng)我們面對變化時,要勇于接受并嘗試新的技能和工具,這將對個人和團(tuán)隊都非常有幫助。"

沈磊為想要使用大模型的公司或個人給出建議,首先嘗試使用開源的模型和插件。這可以幫助他們在實(shí)際場景中試用模型和微調(diào)代碼,了解模型效果,從而在做出關(guān)于使用什么樣的模型、框架和機(jī)器配置的決定時更具有理性和經(jīng)驗。

在開源領(lǐng)域的話題上,聆心智能創(chuàng)始人& CTO 鄭叔亮闡釋了自己的觀點(diǎn):"開源模型讓創(chuàng)業(yè)者借助大平臺搭建原型、實(shí)現(xiàn)核心創(chuàng)新突破并快速交付產(chǎn)品,制造多贏的局面。但初創(chuàng)公司仍需厘清其中存在的安全性和價值觀風(fēng)險,才能在開源的土壤生根發(fā)芽。"

對于未來可能會創(chuàng)造的機(jī)遇,鄭叔亮表示:"在我們上學(xué)的時候,編譯原理課程需要花兩個學(xué)期來完成一個編譯器,數(shù)據(jù)庫課程則要求編寫一個 DBMS 系統(tǒng),本科階段的大作業(yè)基本都是這樣的。這種經(jīng)歷讓我們在面對新技術(shù)時更加從容,不會對挑戰(zhàn)、威脅或恐慌過于擔(dān)憂,而是欣然接受新鮮事物。簡而言之,如果我們不能成為創(chuàng)造浪潮的人,至少應(yīng)該成為在浪潮上跳舞的人。雖然只有少數(shù)人會創(chuàng)造這波浪潮,但更多的人可以站在潮頭,享受其中的樂趣。"

大模型時代的新程序員

NPCon 中的"NP"是"New Programmer"(新程序員)的縮寫,它承載著兩重含義。首先,它象征著《新程序員》雜志,這是 CSDN 延續(xù)近 20 年的《程序員》雜志的全新篇章。其次,它象征著我們站在人工智能紀(jì)元的起點(diǎn),或許將親歷程序員職業(yè)范式的巨變,成為新一代的程序員。

CSDN 這些年一直在持續(xù)關(guān)注人工智能技術(shù)這一賽道,與其他以 AI 為主題的垂直媒體不同的是,CSDN 擁有近五千萬開發(fā)者社區(qū)規(guī)模的平臺,除了關(guān)注科研突破和商業(yè)應(yīng)用外,更著重關(guān)心人工智能應(yīng)用的工程實(shí)現(xiàn)。當(dāng)前,人工智能技術(shù)不斷刷新能力極限,各種相關(guān)新聞層出不窮,然而實(shí)際情況是,我們在基礎(chǔ)設(shè)施、工程實(shí)施、成本以及應(yīng)用落地方面依然面臨著漫長的前行之路。

不論我們是創(chuàng)新的推動者還是變革的見證者,我們都應(yīng)該邁出那一步,踏上旅程。若"新程序員"不能成為浪潮的奠基者,至少應(yīng)當(dāng)成為其中的弄潮兒。新程序員們會懷揣著創(chuàng)業(yè)的精神,始終保持持續(xù)學(xué)習(xí)的狀態(tài)。如此一來,我們的努力才會更具深遠(yuǎn)的意義。

與此同時,CSDN 也將持續(xù)更新 AIGC 和大模型技術(shù)的發(fā)展動態(tài),為廣大技術(shù)愛好者提供最新的技術(shù)資訊和最優(yōu)質(zhì)的學(xué)習(xí)資源與工具,成就更多技術(shù)人與開發(fā)者,歡迎關(guān)注。

消息來源:CSDN
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection