<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      智能駕駛 正文
      發私信給伍文靚
      發送

      0

      自動駕駛「感知」的革新?從人腦和蛙眼得到的啟示

      本文作者: 伍文靚 2022-01-14 15:05
      導語:事件相機和脈沖神經網絡的結合,正如生物眼睛與大腦的協作。

      自動駕駛「感知」的革新?從人腦和蛙眼得到的啟示

      需要處理的圖像像素過多與芯片算力不足的矛盾,已經成為了當前制約自動駕駛發展的瓶頸之一。

      為了解決上述問題,事件相機與脈沖神經網絡的結合或許會是一個可行的解決方案。

      卷積神經網絡是目前圖像目標檢測算法的重要手段。以ResNet-152為例,一個152層的卷積神經網絡,處理一張224*224大小的圖像所需的計算量大約是226億次,如果這個網絡要處理一個1080P的30幀的攝像頭,那么它所需要的計算量將高達每秒33萬億次,十分龐大。

      以當前典型的百度的無人車為例,計算平臺約為800TOPS,其中1TOPS代表處理器可以每秒鐘進行一萬億次操作。

      假設一個攝像頭所需要的算力為33TOPS,更遑論無人車動輒配置十余個攝像頭,以及多個激光雷達和毫米波雷達。

      為了準確檢測行人并預測其路徑,芯片往往需要多幀處理,至少是10幀,也就是330毫秒。這意味著相關系統可能需要數百毫秒才能實現有效探測,而對于一輛以60公里每小時行進中的車輛來說,330毫秒的時間就能行駛5.61米。

      如果為了保證足夠的安全,將幀數增加到每秒30幀,圖像數據很可能讓自動駕駛芯片不堪重負。

      針對算力不足的問題,提高算力是業內玩家最容易想到的方法。然而,目前芯片的制程正在不斷壓縮,在極小尺寸下,量子遂穿效應逐漸顯著,摩爾定律逐漸失效,芯片算力的提升也在面臨巨大挑戰。

      同時,算力的提高也伴隨著功耗的提高,但在新能源的大背景下,分配給芯片的能量越多,續航能力就會受到越大的影響。

      算力與能耗正在逐漸成為自動駕駛發展的一對矛盾。

      那么我們能不能另辟蹊徑呢?仿生學也許能給我們帶來新的思路。

      對于人類來講,在靜止的畫面中注意到運動物體并不難。對于青蛙來說,它甚至只能看到運動的物體,對靜止的背景畫面視而不見。

      針對生物這一特性,研究者們設計出一種事件相機。

      傳統相機以固定幀率重復掃描整個場景,無論場景中是否有目標活動,均忠實的輸出由一幀幀圖片組成的視頻流。毫無疑問,這種連續的視頻流存在高度的信息冗余,大量無用的背景圖片也被送入卷積神經網絡進行運算。

      事件相機則不同,事件相機僅記錄亮度“變化”的像素點。

      傳統幀相機與事件相機輸出的效果對比如下圖所示,即傳統的幀相機輸出為整個視場的全部信息(左圖),而事件相機只捕捉場景中運動的手臂,如(右圖)所示。

      自動駕駛「感知」的革新?從人腦和蛙眼得到的啟示

      基于重點關注運動目標這一特點,事件相機也許能在自動駕駛領域大展身手。

      由于事件相機剔除了靜止的背景圖片,所以每幀產生的數據量大大減少,達到幾十kb的級別。

      相對于傳統相機,事件相機還有高幀率、低功耗、高動態范圍等優點:

      • 1)高幀率。實際上,所謂的“幀率”概念,對事件相機是不存在的。事件相機每個感光單元都可以以異步的形式來記錄像素亮度的變化,無需等待傳統相機每秒30次的“曝光”時機?;跊]有曝光的特點,事件相機的輸出頻率可以高達每秒100萬次,遠遠超過每秒30次傳統相機的幀率。

      • 2)低時延。事件相機僅僅傳輸亮度變化,從而避免了大量冗余數據的傳輸,因此能耗僅用于處理變化的像素。大多數事件相機的功耗約在 10 mW 級,而有部分相機原型的功耗甚至小于10 μW,遠遠低于傳統基于幀的相機。

      • 3)高動態范圍。事件相機的動態范圍高達140 dB,遠遠優于 60 dB 的幀相機。這使得事件相機既能在光照條件良好的白天工作,也能在光線較暗的夜晚采集視場中的動態信息。這是由于事件相機每個像素的光感受器以對數方式獨立工作,而非全局快門工作模式。因此,事件相機具有與生物視網膜相似的特性,其像素可以適應非常暗和非常亮的感光刺激。

      下面兩張圖展現了事件相機的關注運動物體和高動態范圍的特性。傳統相機在光線較暗的情況下,難以辨識圖片中右邊的行人。然而事件相機卻能夠十分清晰的捕捉到右邊的行人,并同時濾出圖像右下靜止的車輛信息。

      自動駕駛「感知」的革新?從人腦和蛙眼得到的啟示傳統相機

      自動駕駛「感知」的革新?從人腦和蛙眼得到的啟示事件相機

      在自動駕駛領域,事件相機相對于傳統相機具有巨大的優勢,不過需要注意的是,事件相機無法提取出距離信息,需要激光雷達配合判斷目標距離。

      或許會有人感到疑惑:事件相機這么好,為什么沒有大量應用在自動駕駛領域呢?

      實際上,相機獲取信息僅僅是第一步,后續事件相機信息的處理則是更為關鍵的一環。

      如下圖所示,傳統相機的輸出是一幀幀的靜止圖片,而事件相機則是一個個事件(Event)流。

      自動駕駛「感知」的革新?從人腦和蛙眼得到的啟示

      一般來說,目前的神經網絡都專注于如何提取每幀靜止圖片中的行人、汽車等目標,如YOLO,resnet等算法。針對基于時間戳的事件流,目前尚無有效的算法進行目標識別。

      而事件流處理算法的缺失,與當前的神經網絡結構是分不開的。

      當前主流的神經網絡被稱為第二代人工神經網絡,以精確的浮點運算為基礎,缺失了在自然界中最重要的一個因素:時間。對于神經網絡而言,輸出的結果會和輸入一一對應,任何時候輸入相同的圖片,神經網絡都會輸出一樣的結果。

      然而真實的大腦,是以這種浮點運算為基礎的嗎?顯然不是,真實的大腦是以脈沖為基礎的,以脈沖傳遞和處理信息。

      這種以脈沖傳遞為基礎的神經網絡是脈沖神經網絡(spiking neural network,SNN),被譽為第三代人工神經網絡?;诿}沖神經網絡結構設計的芯片也被稱為類腦芯片。

      脈沖發生的時刻攜帶著重要信息,脈沖神經網絡天然具備對時序信息處理的能力,這與事件相機基于時間戳的事件流輸出十分吻合。

      此外,脈沖神經網絡還具有事件驅動、異步運算、極低功耗等特性。

      • 1)事件驅動。在我們的大腦中,同一時刻大約有90%以上的神經元都是沉默的。也就是說,當沒有事件輸入的時候神經元是不活動的。這一特點也使得事件相機的事件流的輸出與SNN十分契合,同時功耗也極大降低。

      • 2)異步運算。脈沖神經網絡不存在“主頻”的概念。傳統的計算機都需要一個時鐘,以確保所有的操作都在時間步上進行,這個時鐘的頻率被稱為主頻。目前主流的計算機主頻都達到每秒1GHz以上。然而,以IBM的神經態硬件TrueNorth為例,100Hz左右的脈沖發放率即可完成圖像識別、目標檢測等任務。當前通用的計算機基本是馮·諾依曼結構,這種結構下,隨著CPU的運算速度遠遠超過內存的存取速度,已然形成難以逾越的計算瓶頸。然而,脈沖神經網絡所有的內存和運算都體現在神經元的異步脈沖之中,有很大希望突破目前計算機運算能力瓶頸。

      • 3)極低功耗。在2016年著名的人機圍棋大戰中,Google公司的AlphaGo系統每局圍棋博弈的平均耗電費用高達3000美元。而作為脈沖神經網絡架構的人腦,功率僅僅為20W左右。此前,有學者將目標檢測中的經典算法YOLO進行脈沖化,在完成相同任務的情況下,功耗降低了280倍左右,同時速度提高了2.3到4倍。

      總的來說,事件相機和脈沖神經網絡的結合,正如人類用眼睛和大腦觀察四周:自動忽略周圍靜止的事物,對突然出現的運動物體予以重點關注和運算。

      當前學術界已經掀起了對脈沖神經網絡研究的熱潮,但由于神經態硬件的發展正處于起步階段,并且人們對于大腦的工作機理認識還不夠全面,目前尚無基于脈沖神經網絡在商業上的應用。

      隨著人們對大腦認識的深入,以及國外的TrueNorth、SpiNNaker、Loihi和國內清華的天機芯(Tianjic)和浙大的達爾文等類腦芯片的研發。我們也期待,事件相機與脈沖神經網絡的結合能夠給自動駕駛行業帶來新的突破。雷峰網(公眾號:雷峰網)雷峰網雷峰網



      參考文獻:

      https://mp.weixin.qq.com/s/9DSaLUuIIndV1s71VKDRRA

      https://mp.weixin.qq.com/s/iEBPf4VZYUv-hYLnYdJcYg

      桑永勝,李仁昊,李耀仟,王薔薇,毛耀.神經形態視覺傳感器及其應用研究[J].物聯網學報,2019,3(04):63-71.

      Kim S ,  Park S ,  Na B , et al. Spiking-YOLO: Spiking Neural Network for Energy-Efficient Object Detection[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(7):11270-11277.

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。

      分享:
      相關文章

      主編

      WeChat ID:JANE_WW5 | 關注智能汽車以及自動駕駛
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 日韩人妻ol丝袜av一二区| 榆中县| 亚洲国语无码| 99在线国内在线视频22| 99热这里有免费国产精品| 啪一啪射一射插一插| 日韩二区| 色欲久久久天天天综合网精品| 国内精品99偷拍| 国产高清在线精品二区| 亚洲成人AV在线| 三年在线观看免费完整版中文| 精品人妻中文无码av在线| 福利视频在线导航| 国模大胆一区二区三区| 91丨人妻丨国产丨丝袜| 亚洲av久久精品狠狠爱av| 国产桃色在线成免费视频| 国产精品大屁股1区二区三区 | 大胸美女被吃奶爽死视频| 操日本屄| av色综合久久天堂av色综合在| 国产人妻人伦精品一区| 亚洲一区二区三区自拍公司| 国产精品免费AⅤ片在线观看| 国产SUV精品一区二区四| 亚洲日韩国产精品第一页一区| 久久天天躁夜夜躁狠狠I女人| 日产一区日产2区| 亚洲国内自拍| 成人三级精品| 一区二区三区四区视频| 亚洲av中文一区二区| 日本亚洲色大成网站www久久| 亚洲欧美中文字幕国产| 亚洲高清aⅴ日本欧美视频| 日韩精品久久不卡中文字幕| 日韩城人网站| 日木AV无码专区亚洲AV毛片| 福利所第一导航福利| 国产乱人伦偷精品视频免观看|