DL之FasterR-CNN:Faster R-CNN算法的簡介(論文介紹)、架構詳解、案例應用等配圖集合之詳細攻略
DL之FasterR-CNN:Faster R-CNN算法的簡介(論文介紹)、架構詳解、案例應用等配圖集合之詳細攻略
目錄
Faster R-CNN算法的簡介(論文介紹)
1、實驗結果
2、三者架構對比——R-CNN、Fast?R-CNN、Faster R-CNN
Faster R-CNN算法的架構詳解
1、Faster R-CNN
Faster R-CNN算法的案例應用
Faster R-CNN思路結構框圖
1、RPN網絡結構
2、Anchor機制
相關文章
DL之R-CNN:R-CNN算法的簡介(論文介紹)、架構詳解、案例應用等配圖集合之詳細攻略
DL之FastR-CNN:Fast R-CNN算法的簡介(論文介紹)、架構詳解、案例應用等配圖集合之詳細攻略
DL之FasterR-CNN:Faster R-CNN算法的簡介(論文介紹)、架構詳解、案例應用等配圖集合之詳細攻略
DL之FasterR-CNN:Faster R-CNN算法的架構詳解
Faster R-CNN算法的簡介(論文介紹)
Faster R-CNN,顧名思義,相對R-CNN有非常大的提高!
Abstract
State-of-the-art object detection networks depend on region proposal algorithms to hypothesize object locations. ?Advances like SPPnet [1] and Fast R-CNN [2] have reduced the running time of these detection networks, exposing region ?proposal computation as a bottleneck. In this work, we introduce a Region Proposal Network (RPN) that shares full-image ?convolutional features with the detection network, thus enabling nearly cost-free region proposals. An RPN is a fully convolutional ?network that simultaneously predicts object bounds and objectness scores at each position. The RPN is trained end-to-end to ?generate high-quality region proposals, which are used by Fast R-CNN for detection. We further merge RPN and Fast R-CNN ?into a single network by sharing their convolutional features—using the recently popular terminology of neural networks with ?“attention” mechanisms, the RPN component tells the unified network where to look. For the very deep VGG-16 model [3], ?our detection system has a frame rate of 5fps (including all steps) on a GPU, while achieving state-of-the-art object detection ?accuracy on PASCAL VOC 2007, 2012, and MS COCO datasets with only 300 proposals per image. In ILSVRC and COCO ?2015 competitions, Faster R-CNN and RPN are the foundations of the 1st-place winning entries in several tracks. Code has been ?made publicly available.
摘要
最先進的目標檢測網絡依賴于區域建議算法來假設目標位置。SPPnet[1]和Fast?R-CNN[2]等技術的進步,降低了檢測網絡的運行時間,暴露了區域提案計算的瓶頸。在這項工作中,我們引入了一個與檢測網絡共享全圖像卷積特性的區域建議網絡(RPN),從而實現了幾乎免費的區域建議。RPN是一個完全卷積的網絡,它同時預測每個位置的對象邊界和對象得分。對RPN進行端到端訓練,生成高質量的區域建議,Fast R-CNN對其進行檢測。通過共享卷積特性,我們進一步將RPN和Fast R-CNN合并成一個單獨的網絡——使用最近流行的具有“注意”機制的神經網絡術語,RPN組件告訴統一的網絡去哪里看。對于非常深的VGG-16型號[3],我們的檢測系統在GPU上的幀率為5fps(包括所有步驟),同時在PASCAL VOC 2007、2012和MS COCO數據集上實現了最先進的目標檢測精度,每張圖像只有300個提案。在ILSVRC和COCO 2015年的比賽中,Faster R-CNN和RPN是在多個賽道上獲得第一名的基礎。代碼已經公開。
CONCLUSION
We have presented RPNs for efficient and accurate ?region proposal generation. By sharing convolutional features with the down-stream detection network, the ?region proposal step is nearly cost-free. Our method ?enables a unified, deep-learning-based object detection ?system to run at near real-time frame rates. The ?learned RPN also improves region proposal quality ?and thus the overall object detection accuracy.
結論
為了高效、準確地生成區域建議,我們提出了一種新的區域建議生成方法。通過與下游檢測網絡共享卷積特性,區域建議步驟幾乎是免費的。我們的方法使一個統一的,基于深度學習的目標檢測系統運行在接近實時幀率。學習的RPN還提高了區域建議質量,從而提高了總體目標檢測精度。
論文
Shaoqing Ren, KaimingHe, Ross Girshick, and Jian Sun.
Faster R-CNN: Towards real-time object detection with region proposal networks. NIPS, 2015
https://arxiv.org/abs/1506.01497v3
1、實驗結果
1、PASCAL VOC 2007
Example detections using RPN proposals on PASCAL VOC 2007 test. 下圖為在PASCAL VOC 2007測試中,使用RPN進行目標檢測的結果。The proposed method detects objects in a wide range of scales and aspect ratios. 該方法檢測的目標對象,具有較寬的尺度和寬高比。
Detection results on PASCAL VOC 2007 test set
SS指采用選擇性搜索但沒有采用RPN的網絡;unshared是指沒有共享特征的網絡。
RPN+VGG+shared能夠得到最好的結果!
2、PASCAL VOC 2012
Detection results on PASCAL VOC 2012 test set
RPN+VGG+shared能夠得到最好的結果!
測試的速度:VGG+SS+Fast R-CNN來說,每秒0.5幀,即處理一幀(幅圖像)大概需要2秒。
VGG+RPN+Fast R-CNN來說,處理一幀(幅圖像)大概需要0.2秒。
ZF網絡更快,每秒17幀(圖像),
3、R-CNN Test-Time Speed
整個比較來說,Faster R-CNN的提速是非常明顯的!而基于VGG的Fast R-CNN也只需要2.3秒左右即可!
2、三者架構對比——R-CNN、Fast?R-CNN、Faster R-CNN
Faster R-CNN算法的架構詳解
DL之FasterR-CNN:Faster R-CNN算法的架構詳解
1、Faster R-CNN
Faster R-CNN = Fast R-CNN + RPN (Region Proposal Networks)
不依賴于外部區域建議算法
單個前向傳播中進行目標檢測
“attention” mechanisms(注意力機制): the RPN component tells the unified network where to look
Faster R-CNN算法的案例應用
后期更新……
Faster R-CNN思路結構框圖
1、RPN網絡結構
2、Anchor機制
參加文章
Faster RCNN:RPN,anchor,sliding windows
神經網絡
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。