201803100525 腋下除毛價錢|腋下除毛價錢台北 夏天快到了尋找腋下除毛美白|台北腋下除毛美白~聖雅諾美學診所

代碼開源腋下除毛價錢|腋下除毛價錢台北

原標題:代碼開源 | COCO-16 圖像分割冠軍:首個全卷積端到端實例分割模型

新智元報道

來源:arXiv

作者:聞菲

【新智元導讀】清華大學與微軟研究院合作,提出瞭一種新的架構 FCIS,是首個用於圖像實例分割任務的全卷積、端到端的解決方案,該架構在 COCO 2016 圖像分割競賽中獲得瞭第一名。論文現被 CVPR 2017 作為 spotlight paper 接收,代碼也已開源:https://github.com/msracver/FCIS

繼圖像分類、物體檢測之後,精確到像素級別的物體實例分割就成為更具挑戰性和實用性的視覺識別任務。前兩個任務在近年來取得瞭迅速的進展,已經有瞭不少優雅有效的方法。然而,實例分割任務卻還缺少一個標桿性的工作。

為此,來自清華大學和微軟研究院的李益、齊浩之、代季峰、季向陽、危夷晨合作,利用全卷積神經網絡(FCN)在圖像語義分割和實例分割預測方面的優勢,提出瞭一種新的架構 FCIS。

FCIS 是首個全卷積、端到端的實例分割解決方案,為實例分割提供瞭一個簡單、快速、準確的框架,由於考慮到實例分割預測和分類這兩個步驟之間的關聯,FCIS 能夠同時對多個物體實例進行檢測和分割。

FCIS 在 COCO 2016 分割競賽中以顯著優勢獲得瞭第一名。日前,他們的研究論文《全卷積實例語義分割》(Fully Convolutional Instance-aware Semantic Segmentation)被 CVPR 2017 作為亮點論文接收,作者將論文上傳到 arXiv,也將代碼在 Github 開源。



FCIS:首個用於實例分割的全卷積端到端解決方案

現有的主流實例分割方法,幾乎都是在常用的物體檢測方法的基礎上進行簡單直接的擴展,對於問題的理解還不夠深入,計算效率和精確度都還有很大的提升空間。

例如,對於興趣區域(Region of Interests, RoI)的分類和分割作為單獨的兩個步驟進行,沒有充分利用這兩個任務的關聯性;對於分割子網絡的訓練沒有考慮物體類別的差異;對於每個 RoI 運行一個分割子網絡導致計算效率低下;RoI Pooling 應該用更精確的對齊方式……

“我們之前在 NIPS 2016 發表的做物體檢測的工作 R-FCN,其兩個主要思想,一是基於高效的全卷積網絡,二是利用位置敏感的 RoI Pooling 打破平移不變性,也都適合用來做實例分割,於是就沿著這個思路做下來瞭,希望能解決上述問題。”微軟研究人員介紹說。



提出 FCIS 的思路示意圖。(a) 用於語義分割的全卷積網絡(FCN)。每一類都有單獨的一張 score map,這張圖不會區分單個的物體實例。(b) 用於實例分割預測的 InstanceFCN,一個大小為 3×3 位置敏感的 score map 會將相關的位置信息編碼。InstanceFCN 產生一系列的分割候選,後續有一個網絡會對這些分割候選做分類判別。(c) 新提出的全卷積實例語義分割方法(FCIS),其中位置敏感的內/外 score maps 會在同一時間對多張連在一起的圖像進行分割和檢測。來源:Yi Li et al.Fully Convolutional Instance-aware Semantic Segmentation



FCIS 整體架構。一個區域預測網絡(RPN)與 FCIS 共享卷積層。RPN 產生的興趣區域(RoI)會作用在 score maps 上,同時產生分類和分割預測。權重可學的層都是卷積層,並且在整張圖像上進行計算。每個 RoI 所產生的額外計算成本可以忽略不計。來源:Yi Li et al.Fully Convolutional Instance-aware Semantic Segmentation

利用分類和分割的相關性,同時解決兩個任務

據微軟研究人員介紹,剛開始嘗試時,他們先是簡單將 R-FCN 用於做物體分類的 score maps 擴充為共享基礎卷積網絡的兩路 score maps,各自解決 RoI 分類和分割的問題,網絡結構類似於一個簡單的多任務網絡,相對於 R-FCN,增加的參數和計算量都很少。

不過,當他們將新架構和 MS COCO 物體分割比賽 2015 年冠軍方法 MNC(也是他們的工作)比較時,發現在 VOC 數據集上 FCIS 相較於 MNC 的精度優勢不夠大,雖然速度和內存的優勢明顯。

但是,在 COCO 數據集上測試後,精度的差距又明顯拉開瞭。作者分析認為,他們的方法對於更加困難的小物體,多類別的 COCO 數據集作用更明顯。並且,COCO 的性能評價指標對於物體定位和分割的精度要求更高,更能反應出新方法高精度的優勢。

經過進一步思考,研究人員認為應該充分利用分類和分割兩個任務的相關性。他們發現通過一個簡單的重新參數化,可以將原本不相關的兩路 score maps 變得密切相關,使它們可以被同時用來解決兩個任務。

這樣做的好處腋下除毛次數是它們各自的訓練會同時受到兩路監督信號的影響,相當於更充分利用瞭訓練數據,而沒有增加任何模型的復雜度和計算代價,實驗結果也更上瞭一層樓的。

“這也是我們最後論文裡的基於全卷積網絡的方法,簡單高效,解決瞭前面提到的所有問題,最終獲得瞭 MS COCO 比賽 2016 年的冠軍。”論文第一作者李益告訴新智元。



(在“人”這一類別中)不同 RoI 實例分割和分類的結果。Score Maps 在不同 RoI 和兩個子任務之間是共享的。紅點表示圖像上同一個像素在不同的 RoI 裡有不同的語義。來源:Yi Li et al.Fully Convolutional Instance-aware Semantic Segmentation

目前,團隊在 ICCV 投稿瞭一篇新的文章,Deformable Convolutional Networks。這個工作可以對於卷積核的空間采樣位置進行自適應的學習和調整,效果是可以根據圖像內容學習到空間可變形的卷積網絡。

“我們相信這也是一個標桿性的工作。我們在 ICCV 的投稿中還沒有在物體實例分割任務上進行測試,接下來打算試一下。”

論文:全卷積實例語義分割



作者:李益、齊浩之、代季峰、季向陽、危夷晨

摘要

我們提出瞭首個用於實例分割(instance-aware)任務的全卷積端到端解決方案。它繼承瞭全卷積網絡(FCN)在語義分割和實例分割預測(instance mask proposal)方面的全部優點,能同時對多個物體實例進行檢測和分割。通過引入位置敏感的內/外 score maps,底層卷積表征在兩項子任務及所有興趣區域(RoI)之間是完全共享的。我們提出的網絡具有很高的集成性,在精度和效果兩方面都達到瞭目前最好的結果,也以顯著優勢贏得瞭 COCO 2016 圖像分割競賽的冠軍。代碼開源地址:https://github.com/daijifeng001/TA-FCN

論文第二版 arXiv(CVPR-17 接收):https://arxiv.org/pdf/1611.07709.pdf

Github 代碼開源:https://github.com/msracver/FCIS返回搜狐,查看更多

腋下除毛推薦ptt|腋下除毛推薦ptt台北

責任編輯:

聲明:本文由入駐搜狐號的作者撰寫,除搜狐官方賬號外,觀點僅代表作者本人,不代表搜狐立場。

閱讀 ()
沒有上一則|日誌首頁|沒有下一則
回應
關鍵字
    沒有新回應!





Powered by Xuite