此外,深度神經網絡的能耗與其規模大小也成正比。資料顯示,到2025年,神經網絡的繼續發展有望將其規模擴大至100萬億個參數,相當于人類大腦的容量,這樣規模的神經網絡將消耗大量能源。人類大腦的能效比當前最優秀硬件的能效要高100倍,因此我們應該從大腦得到啟發,發展能效更高的人工智能技術。
圖為 Qualcomm技術副總裁韋靈思
人工智能的能耗問題具備兩大挑戰
在Qualcomm技術副總裁韋靈思看來,人工智能的能耗問題存在兩個重要的挑戰。第一,人工智能創造的經濟價值和效益必須超過運行這個服務的成本,否則人們將無法盈利,人們開發的這些卓越的人工智能技術也就無所用處。不管是社交網絡上按用戶喜好排序,或者是個性化的廣告和推薦,它的應用成本都需要控制在一定范圍內。此外,人工智能還被應用到大型的智慧城市和智慧工廠中,同樣需要控制成本。
Qualcomm技術副總裁韋靈思
第二,人工智能能效問題也是一大挑戰,是因為在邊緣側也就是移動環境中,還存在散熱的限制。比如說,我們不能在手機里運行能耗過高的任務,否則手機就會變得非常熱。但同時,我們需要處理大量的人工智能工作負載,包括完成非常密集的計算分析任務、處理復雜的并發性即在一段時間內同時完成多項任務,還需要保證實時和始終開啟,移動環境又有多種多樣的限制條件,比如說終端的尺寸很小,又需要保證長久續航以支持全天使用。此外,受尺寸影響,移動終端的內存和帶寬也都有限制。
“所以說,不管是從經濟效益還是熱效率的角度看,我們都必須要降低人工智能運行的能耗。” 韋靈思總結到:“我認為未來人工智能算法將不會由其所能提供的智能多少來衡量,而是要看這種算法每瓦時所提供的智能多少,這會成為未來人工智能算法的重要衡量指標。在此方面Qualcomm擁有很大的優勢,低功耗計算正是我們一直以來所擅長的。”
Qualcomm在終端側讓深度學習更加高效
深度學習是人工智能發展歷程中的一次重要變革,受神經網絡的大幅發展所驅動,深度學習顯著提高了預測的準確性。此外,韋靈思表示我們不應該從聲音、信號等大量原始數據中人工定義特性,而是應該讓算法從原始數據中自行學習提取特性,這是一個巨大的突破。神經網絡的優點還包括,它能夠自動探測物體,非常高效地共享參數,使部分數據更加高效,并且可以在現代硬件上快速執行。
當然,深度學習也有需要改進的方面,在韋靈思看來,最重要的一點是,卷積神經網絡使用了太多的內存、計算能力和能源,這是現在急需改善的。此外,神經網絡不具備旋轉不變性、不能量化不確定性以及它很容易被輸入側輕微的改變所欺騙等。
為應對這些挑戰,Qualcomm開展了大量的工作。在降低能耗方面,受人類大腦的啟發,Qualcomm早在超過十年前就已經開始了脈沖神經網絡的研究,這也是實現低功耗計算的一種方法。現在同樣受人腦的啟發,Qualcomm正考慮利用噪音來實現深度學習方面的低功耗計算。
韋靈思解釋稱:“人腦其實是一個充滿噪聲的系統,它知道如何處理噪音。我相信,我們可以更進一步利用噪音來為神經網絡帶來益處。在專業領域,我們將這種方法稱為貝葉斯深度學習,這也是我們實現這一切的重要基礎性框架。通過貝葉斯深度學習,我們把神經網絡壓縮得更小,使其可以更高效地運行在驍龍平臺上。我們還通過使用這一框架,量化我們需要進行的計算處理的比特位。”
談及這些噪音如何幫助我們進行壓縮和量化時,韋靈思講到,我們將噪聲引入到神經網絡,繼而影響到各個參數和連接,然后這些擾動的參數將噪聲傳播到激活節點,也就是各個神經元。如果這些神經元充滿了噪音、不存儲任何信息、或對預測不能發揮任何作用,我們就對其進行裁剪。通過裁剪神經元,神經網絡會變得更小,從而在計算機和驍龍平臺上也將會運行得更快。
剛剛談到了使用貝葉斯框架進行壓縮與量化,事實上它還可以解決許多其他問題。如果神經網絡只進行過面向某一場景的訓練,例如一臺自動駕駛汽車只接受過某一城市的相關訓練,現在這臺汽車來到另一個新的城市,你可以使用貝葉斯深度學習進行泛化。Qualcomm的思路是,能夠對數據做出解釋的最小、最簡單的模型即為最適合的模型,這就是奧卡姆剃刀。貝葉斯學習還可以幫助我們產生置信估計,即量化神經網絡的不確定性。當我們加入噪聲,噪聲將傳播至預測,從而產生預測的分布區間,由此完成對預測置信度的量化。最后,貝葉斯學習可以幫助我們不易遭受對抗攻擊,即通過輸入側的輕微改變來得到不同的預測結果。它也有助于保護用戶的個人隱私,因為數據信息可以轉換為模型參數甚至可以進行重構,使得數據具有隱私敏感度。所以說通過加入噪聲,可以很好地幫助我們保護隱私。總體而言,貝葉斯深度學習可以很好地解決深度神經網絡所面臨的諸多挑戰。
“隨著壓縮比越來越大,貝葉斯深度學習相比于其他方法的性能優勢就越明顯,其在移動平臺上的運行也更為高效,這就是為什么我們認為貝葉斯深度學習尤其適合移動場景。” 韋靈思進一步講到。
此外,據介紹,目前Qualcomm異構計算系統中包括了三個組件,分別是CPU、GPU和DSP。超過十年來,在每一個產品研發周期內,Qualcomm都從多個維度持續提升這三大組件。舉例來說,在緩存結構(caching structure)上,Qualcomm不斷優化內存工作方式;持續優化精確性,通過最低的能耗實現對精確度優化;優化計算管理,比如說當有一個計算任務,可以選擇讓GPU、CPU或是DSP完成,或者讓所有組件共同完成。雖然目前只對單一終端上的計算進行管理,但Qualcomm有更遠大的愿景,在即將到來的5G時代,Qualcomm將在萬物互聯的環境下,將計算放在由終端及云端組成的整個網絡中運行,為網絡邊緣帶來強大的人工智能系統。”
Qualcomm三層努力加速人工智能研究
在加速人工智能研究方面,Qualcomm也做了很大的努力,包括對計算架構、內存層級及使用層面的優化和提升。在計算架構方面,Qualcomm專注于優化指令類型和并行性,以及優化運行計算所需的精確度,貝葉斯深度學習可以幫助實現最佳的運行精確度。同樣重要甚至更為重要的是內存層級。據估計,從DRAM遷移數據或將數據遷移至DRAM的功耗,是ALU運算(ALU Operation)功耗的200倍,因此,需要優化內存層級以降低數據移動的功耗。
在使用層面,Qualcomm致力于優化硬件、軟件和編譯器,從而減少計算的冗余并最大化計算吞吐量和內存帶寬。
韋靈思補充道:“由硬件、軟件和算法構成的生態系統對我們來說至關重要。高效的硬件將不斷演進,以適應在人工智能領域出現的全新算法。”
他進一步講到:“我們關注如何在硬件上更高效地運行卷積神經網絡,以及為高效運行神經網絡而開發更高效的新硬件。在算法方面,確保算法在驍龍平臺上的高效運行。這一切都需要通過軟件工具來實現,也就是我們的驍龍神經處理SDK。大家可以將軟件看成是連接硬件和算法之間的橋梁。比如說,你在驍龍平臺上構建你最喜歡的模型,或進行你最喜歡的人工智能測試,當你將模型放到神經處理SDK中,這些可用的軟件工具將幫助你進行壓縮和量化,從而確保你的模型或測試在驍龍平臺上高效運行。”
相關推薦
中國移動、中興通訊和Qualcomm Incorporated子公司Qualcomm Technologies, Inc 今日宣布,成功實現了全球首個基于3GPP R15標準的端到端5G新空口(5G NR)系統互通(IoDT)。互通演示在中國移動5G聯合創新中心實驗室進行,在中國移動的合作推動下,采用了中興通訊的5G新空口預商用基站和Qualcomm Technologies的5G新空口終端原型機完成互通。端到端5G