AI行業(yè)的難題之一:
AI芯片跟不上算法的速度
早在2019年斯坦福大學就有報告指出,AI對算力需求的速度要快于芯片的發(fā)展速度?!霸?2012年之前,AI的發(fā)展與摩爾定律的遵循度極高,計算能力每兩年翻一番,但2012年之后,AI的計算能力每3.4個月就翻一番?!?/p>
當通用處理器算力跟不上 AI 應(yīng)用的需求,針對 AI 計算的專用處理器便誕生了,也就是常說的“AI 芯片”。自2015年AI算法在視覺識別方面超越人類分數(shù),業(yè)界對AI芯片關(guān)注度大增,也因此帶動了相關(guān)IP技術(shù)的發(fā)展,加快了下一代處理器和存儲器的速度,實現(xiàn)了更高的帶寬接口,從而緊緊跟上AI算法的步伐。圖1顯示了自2012年引入反向傳播和現(xiàn)代神經(jīng)網(wǎng)絡(luò),并與NVIDIA的重型計算 GPU 引擎相結(jié)合后,AI典型錯誤率呈現(xiàn)肉眼可見的降低。
圖 1:在 2012 年引入現(xiàn)代神經(jīng)網(wǎng)絡(luò)后,AI分類錯誤迅速減少,2015年起低于人類錯誤率
隨著AI 算法日益復(fù)雜,無法在專為消費類產(chǎn)品設(shè)計的 SoC 上執(zhí)行,需要使用修剪、量化等技術(shù)對齊進行壓縮,從而減少系統(tǒng)需要的內(nèi)存和計算量,但這樣就會影響準確性。所以工程上面臨一個挑戰(zhàn):如何實施壓縮技術(shù)而不影響AI應(yīng)用所需的精度?
除了AI算法復(fù)雜性的提升之外,由于輸入數(shù)據(jù)的增加,推理所需的數(shù)據(jù)量也急劇增長。圖 2 顯示了優(yōu)化后的視覺算法所需的內(nèi)存和計算量。該算法設(shè)計為相對較小的 6MB 內(nèi)存占用空間(SSD-MobileNet-V1 的內(nèi)存要求)。在這個特定示例中,我們可以看到,隨著像素大小和顏色深度的增加,最新的圖像捕獲中的內(nèi)存要求已從 5MB 增加到 400MB 以上。
目前最新的三星手機CMOS圖像傳感器攝像頭支持高達108MP。理論上,這些攝像頭在30fps和超過1.3GB 內(nèi)存下可能需要40 TOPS的性能。但ISP中的技術(shù)以及 AI 算法中特定的區(qū)域,無法滿足這些要求,40 TOPS性能尚無法在手機上實現(xiàn)。但通過此示例能看出邊緣設(shè)備的復(fù)雜性和挑戰(zhàn),并且也正在推動傳感器接口IP的發(fā)展。MIPI CSI-2 具有專門的區(qū)域來解決這個問題,MIPI C/D-PHY 繼續(xù)增加帶寬,以處理驅(qū)動數(shù)億像素的最新 CMOS 圖像傳感器數(shù)據(jù)。
圖 2:隨著輸入像素增大,SSD-MobileNet-V1 的內(nèi)存變化測試
如今的解決方案就是壓縮AI算法,壓縮圖像,這就使得芯片優(yōu)化變得極其復(fù)雜,尤其是對于內(nèi)存有限、處理量有限且功耗預(yù)算較小的 SoC。
AI行業(yè)難題二:AI芯片評估面臨挑戰(zhàn)
AI芯片廠商通常對會其芯片進行一些基準測試?,F(xiàn)在的SoC有多種不同的衡量指標。首先,每秒萬億次運算 (TOPS) 是性能的一個主要指標,通過這項數(shù)據(jù)可以更清楚地了解芯片能力,例如芯片可以處理的運算類型和質(zhì)量。再者,每秒推理數(shù)也是一個主要指標,但需要了解頻率和其他參數(shù)。因此,行業(yè)內(nèi)開發(fā)了額外的基準測試來幫忙AI 芯片進行評估。
MLPerf/ML Commons和AI.benchmark.com都是AI芯片標準化基準測試的工具。其中,ML Commons 主要提供芯片精度、速度和效率相關(guān)的測量規(guī)則,這對了解芯片處理不同 AI 算法的能力非常重要,如前所述,在不了解精度目標的情況下,我們是無法在芯片進度與壓縮程度之間做取舍的。此外,ML Commons還提供通用數(shù)據(jù)集和最佳實踐。
位于瑞士蘇黎世的 Computer Vision Lab 還提供移動處理器的基準測試,并發(fā)布其結(jié)果和芯片要求以及支持重復(fù)使用的其它信息。包括 78 項測試和超過180 個性能方面的基準。
斯坦福大學的DAWNBench為ML Commons的工作提供了支持。這些測試不僅能解決 AI 性能評分問題,還解決了處理器執(zhí)行 AI 算法訓(xùn)練和推理的總時間問題。這解決了芯片設(shè)計工程目標的一個關(guān)鍵問題,即降低整體擁有成本或總擁有成本。AI 處理時間,決定了云端 AI 租賃或邊緣計算的芯片所有權(quán),對于組織的整體 AI 芯片策略更有用。
另一種流行的基準測試方法,是利用常見的開源圖形和模型,但這些模型也有一些弊端。例如,ResNET-50 的數(shù)據(jù)集為 256x256,但這不一定是最終應(yīng)用中可能使用的分辨率。其次,該模型較舊,層數(shù)少于許多較新模型。第三,模型可以由處理器 IP 供應(yīng)商手動優(yōu)化,但這并不代表系統(tǒng)將如何與其他模型一起執(zhí)行。除了ResNET-50之外,還有大量可用的開源模型,通過它們可以看到該領(lǐng)域的最新進展,并為性能提供良好的指標。
最后,針對特定應(yīng)用的定制圖形和模型變得越來越普遍。理想情況下,這是對 AI 芯片進行基準測試,以及合理優(yōu)化以降低功耗和提高性能的最佳方案。
由于SoC開發(fā)者各有不同的目標,有些是應(yīng)用于高性能領(lǐng)域,有的是用于較低性能的領(lǐng)域,還有的是通用AI領(lǐng)域,以及ASIC領(lǐng)域。對于不知道需要按照哪種 AI 模型進行優(yōu)化的 SoC,自定義模型和開放可用模型的良好組合,可以很好地指示性能和功耗。這種組合在當今市場中最常用。然而,在 SoC 進入市場后,上述較新的基準測試標準的出現(xiàn),似乎在比較中具有一定的相關(guān)性。
邊緣AI芯片設(shè)計之前的評估尤為重要
現(xiàn)在越來越多的數(shù)據(jù)計算在邊緣發(fā)生,鑒于邊緣優(yōu)化的復(fù)雜性,當今的 AI 解決方案必須協(xié)同設(shè)計軟件和芯片。為此,它們必須利用正確的基準測試技術(shù),同時還必須有工具支持,從而使設(shè)計人員能夠準確探索系統(tǒng)、SoC 或半導(dǎo)體 IP 的不同優(yōu)化方式,調(diào)查工藝節(jié)點、存儲器、處理器、接口等。
在這方面,新思科技可針對特定領(lǐng)域提供有效的工具,來對 IP、SoC 和更廣泛的系統(tǒng)進行模擬、原型驗證和基準測試。
首先,新思科技HAPS? 原型驗證解決方案通常用于展示不同處理器配置的能力和權(quán)衡。該工具能夠檢測出除了處理器之外, AI 系統(tǒng)的帶寬在什么情況下開始成為瓶頸?傳感器輸入(通過 MIPI)或存儲器訪問(通過 LPDDR)在處理不同任務(wù)時的最佳帶寬是多少?
再一個,新思科技ZeBu? 仿真系統(tǒng)可用于功率模擬。ZeBu Empower可采用AI、5G、數(shù)據(jù)中心和移動SoC應(yīng)用的真實軟件工作負載,在數(shù)小時內(nèi)完成功耗驗證周期。此仿真系統(tǒng)已被證明優(yōu)于 AI 工作負載的模擬和/或靜態(tài)分析。
用戶還可以通過新思科技的 Platform Architect 探索 SoC 設(shè)計的系統(tǒng)層面。Platform Architect 最初用于內(nèi)存、處理性能和功耗探索,最近越來越多地用于了解 AI 的系統(tǒng)級性能和功耗。使用預(yù)構(gòu)建的LPDDR 、ARC處理器模型用于 AI、存儲器等,可以進行靈敏度分析,以確定最佳設(shè)計參數(shù)。
新思科技擁有一支經(jīng)驗豐富的團隊,負責開發(fā)從 ASIP Designer 到 ARC 處理器的 AI 處理解決方案。包括內(nèi)存編譯器在內(nèi)的經(jīng)過驗證的基礎(chǔ) IP 產(chǎn)品組合已廣泛應(yīng)用于 AI SoC。AI 應(yīng)用的接口 IP 范圍從傳感器輸入到 I3C 和 MIPI,再到通過 CXL、PCIe 和 Die to Die 解決方案的芯片到芯片連接,以及通過以太網(wǎng)的網(wǎng)絡(luò)功能。
總結(jié)
軟件和芯片協(xié)同設(shè)計已經(jīng)成為現(xiàn)實,選擇正確的工具和專業(yè)知識至關(guān)重要。新思科技正在利用專業(yè)知識、服務(wù)和成熟的IP,為客戶提供最適合的方法,在不斷變化的情況下優(yōu)化 AI 芯片。
聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)發(fā)僅為更大范圍傳播,若有異議請聯(lián)系我們修改或刪除:zhangkai@cgbtek.com