上海2018年9月14日電 /美通社/ -- 專注于終端人工智能解決方案的新創(chuàng)公司耐能 (Kneron) 今日參與在上海舉行的 Arm 人工智能開發(fā)者全球峰會,以“可重構算法在AI芯片中的應用”為主題發(fā)表演說,會中同時發(fā)布 Kneron 新一代終端人工智能處理器系列 NPU IP - KDP Series。Kneron 第二代 NPU IP 包括三大產品,分別為超低功耗版 KDP 320、標準版 KDP 520、以及高效能版 KDP 720。全系列產品的功耗低于0.5瓦(W),采用新的架構設計讓運算更具彈性,整體效能相較于上一代產品大幅提升達3倍,運算能力 (peak throughput) 較高可達5.8 TOPS(每秒萬億次運算)(注一)。
Kneron 創(chuàng)始人兼 CEO 劉峻誠表示:“Kneron 推出為終端裝置所設計的人工智能處理器 NPU IP 后,其超低功耗的優(yōu)勢受到市場高度關注。Kneron 新一代 NPU 產品在諸多方面取得顯著的突破,基于第一代產品的優(yōu)勢,我們改善數據運算流程、提升整體運算效能與儲存資源使用率,同時針對不同的神經網絡模型進行優(yōu)化,讓 NPU 可以更廣泛地應用在各種終端裝置,并滿足更復雜的運算需求。”
Kneron NPU IP 可應用在智能手機、智能家居、智能安防、以及各種物聯網設備上,讓終端裝置在離線環(huán)境下就能運行各種神經網絡。Kneron 第二代 NPU IP 采用新的交錯式運算架構 (Interleaving computation architecture) 設計,縮短運算流程和提升效率。深度壓縮 (Deep compression) 技術讓壓縮功能從模型層級深入至數據和參數層級,使壓縮率再提升。動態(tài)儲存資源分配功能提升儲存資源利用率,卻不影響運算效能。此外,支持更廣泛的卷積神經網絡 (Convolutional Neural Networks, CNN) 模型,并針對各種 CNN 模型分別進行優(yōu)化,在不同神經網絡模型下,可提升約1.5倍至3倍不等的效能。
第二代 NPU IP-KDP Series 重點技術說明:
交錯式運算架構設計:透過交錯式架構,讓神經網絡架構中主要的卷積 (convolution) 與池化 (pooling) 運算可平行進行,以提升整體運算效率。在新的卷積層中,還可同時支持 8bits 與 16bits 的定點運算 (fixed point),讓運算更有彈性。
深度壓縮技術:不僅能執(zhí)行模型壓縮,還能對運行中的數據和參數 (coefficient) 進行壓縮,減少內存使用。模型大小可壓縮至50分之一以下,準確度的影響率小于1%。
動態(tài)儲存資源分配:讓共享內存 (shared memory) 和運作內存 (operating memory) 之間可以進行更有效的資源分配,提升儲存資源利用率的同時卻不影響運算效能。
CNN模型支持優(yōu)化:支持更廣泛的 CNN 模型,包括 Vgg16、Resnet、GoogleNet、YOLO、Tiny YOLO、Lenet、MobileNet、Densenet 等,而且針對不同 CNN 模型分別進行優(yōu)化,在不同神經網絡模型下,相較上一代產品提升約1.5倍至3倍效能。
注一:運算效能會因納米制程不同而異。5.8 TOPS 為 KDP720 在 28 納米制程、600 MHz、8bit fixed points 下的效能表現,預測運行功耗在 300-500mW(估計每瓦效能為13.17 TOPS/W) 。