要求苛刻到變態,納瓦級的待機功耗下,毫秒內得喚醒處理復雜任務。
這問題有多變態?
擱十幾年后,這都算得上芯片設計的世界級難題。
何強嘴角撇了撇,幅度小到可以忽略。
黑暗里,音頻波紋跳動得跟心臟似的。
他心里清楚,這是對面在摸他的底。
但他一點沒慌,聲音沉下去,穩得一批:“納瓦級待機功耗和毫秒級喚醒?
又不是不能一起搞。
關鍵在于用非對稱多核架構,再加上事件驅動的細粒度電源門控技術。
睡覺的時候,就留一個特省電的‘哨兵核心’在那聽動靜、看看表,其他核心跟外設統統斷電。
一有喚醒信號,‘哨兵核心’直接用提前裝好的微碼。
把管事的那個核心集群和必要的總線激活,跳過那些慢吞吞的系統引導,嗖一下就響應了。”
他不光把核心思路講透了,還順帶扯遠了點,說了怎么用動態電壓頻率調整(DVFS)和自適應體偏壓技術,根據任務輕重再摳點功耗。
他這套說辭,邏輯嚴密,理論基礎扎實,而且明顯甩了現在市面上的芯片設計好幾條街。
屏幕那邊的音頻波紋僵了幾秒,像是被何強的技術砸懵了。
沉默了一會兒,估摸著在消化信息。
“……非對稱多核……事件驅動電源門控……這想法……確實新鮮。”
對方的聲音少了幾分小心翼翼,多了幾分凝重。
“那,多傳感器數據融合處理,實時性和精度怎么搞?
尤其是在噪音大的地方,低延遲的同時,怎么把那些雜信號過濾掉,還能把有用的特征抓出來?”
對面又扔過來一個燙手山芋,這回是信號處理和算法的事。
何強指尖在鍵盤上輕點了幾下,聲音清脆。
他笑了笑,不緊不慢地說:“噪音大的時候搞數據融合,傳統的什么卡爾曼濾波、粒子濾波,效果有限,計算量還大。
我推薦用基于深度學習的自適應濾波算法,再配上硬件上的脈沖神經網絡(SNN)加速器。
SNN對噪音天生抵抗力強,還巨省電,最適合處理那種實時、帶毛刺、帶干擾的傳感器數據流。
模型提前訓好,直接在硬件上就能把特征提出來,初步判斷也做了,處理延遲自然就壓下去了。”
深度學習?