<rp id="oy1hv"></rp><dd id="oy1hv"></dd>
<tbody id="oy1hv"></tbody>
      1. 您當前所在位置: 首頁 > 首發論文
        動態公開評議須知

        1. 評議人本著自愿的原則,秉持科學嚴謹的態度,從論文的科學性、創新性、表述性等方面給予客觀公正的學術評價,亦可對研究提出改進方案或下一步發展的建議。

        2. 論文若有勘誤表、修改稿等更新的版本,建議評議人針對最新版本的論文進行同行評議。

        3. 每位評議人對每篇論文有且僅有一次評議機會,評議結果將完全公示于網站上,一旦發布,不可更改、不可撤回,因此,在給予評議時請慎重考慮,認真對待,準確表述。

        4. 同行評議僅限于學術范圍內的合理討論,評議人需承諾此次評議不存在利益往來、同行競爭、學術偏見等行為,不可進行任何人身攻擊或惡意評價,一旦發現有不當評議的行為,評議結果將被撤銷,并收回評審人的權限,此外,本站將保留追究責任的權利。

        5. 論文所展示的星級為綜合評定結果,是根據多位評議人的同行評議結果進行綜合計算而得出的。

        勘誤表

        上傳勘誤表說明

        • 1. 請按本站示例的“勘誤表格式”要求,在文本框中編寫勘誤表;
        • 2. 本站只保留一版勘誤表,每重新上傳一次,即會覆蓋之前的版本;
        • 3. 本站只針對原稿進行勘誤,修改稿發布后,不可對原稿及修改稿再作勘誤。

        示例:

        勘誤表

        上傳勘誤表說明

        • 1. 請按本站示例的“勘誤表格式”要求,在文本框中編寫勘誤表;
        • 2. 本站只保留一版勘誤表,每重新上傳一次,即會覆蓋之前的版本;
        • 3. 本站只針對原稿進行勘誤,修改稿發布后,不可對原稿及修改稿再作勘誤。

        示例:

        上傳后印本

        ( 請提交PDF文檔 )

        * 后印本是指作者提交給期刊的預印本,經過同行評議和期刊的編輯后發表在正式期刊上的論文版本。作者自愿上傳,上傳前請查詢出版商所允許的延緩公示的政策,若因此產生糾紛,本站概不負責。

        發郵件給 王小芳 *

        收件人:

        收件人郵箱:

        發件人郵箱:

        發送內容:

        0/300

        論文收錄信息

        論文編號 202305-76
        論文題目 基于可解釋性引導CNN的多任務學習模型
        文獻類型
        收錄
        期刊

        上傳封面

        期刊名稱(中文)

        期刊名稱(英文)

        年, 卷(

        上傳封面

        書名(中文)

        書名(英文)

        出版地

        出版社

        出版年

        上傳封面

        書名(中文)

        書名(英文)

        出版地

        出版社

        出版年

        上傳封面

        編者.論文集名稱(中文) [c].

        出版地 出版社 出版年, -

        編者.論文集名稱(英文) [c].

        出版地出版社 出版年,-

        上傳封面

        期刊名稱(中文)

        期刊名稱(英文)

        日期--

        在線地址http://

        上傳封面

        文題(中文)

        文題(英文)

        出版地

        出版社,出版日期--

        上傳封面

        文題(中文)

        文題(英文)

        出版地

        出版社,出版日期--

        英文作者寫法:

        中外文作者均姓前名后,姓大寫,名的第一個字母大寫,姓全稱寫出,名可只寫第一個字母,其后不加實心圓點“.”,

        作者之間用逗號“,”分隔,最后為實心圓點“.”,

        示例1:原姓名寫法:Albert Einstein,編入參考文獻時寫法:Einstein A.

        示例2:原姓名寫法:李時珍;編入參考文獻時寫法:LI S Z.

        示例3:YELLAND R L,JONES S C,EASTON K S,et al.

        上傳修改稿說明:

        1.修改稿的作者順序及單位須與原文一致;

        2.修改稿上傳成功后,請勿上傳相同內容的論文;

        3.修改稿中必須要有相應的修改標記,如高亮修改內容,添加文字說明等,否則將作退稿處理。

        4.請選擇DOC或Latex中的一種文件格式上傳。

        上傳doc論文   請上傳模板編輯的DOC文件

        上傳latex論文

        * 上傳模板導出的pdf論文文件(須含頁眉)

        * 上傳模板編輯的tex文件

        回復成功!


        • 0

        基于可解釋性引導CNN的多任務學習模型

        首發時間:2023-05-12

        劉佳 1    姚蘭 2   

        姚蘭(1978-),女,副教授, 主要研究方向:最優化方法及其應用,機器學習中的稀疏正則化方法,深度學習與醫學影像分析。

        • 1、湖南大學數學學院,長沙 410082
        • 2、湖南大學數學學院,長沙 410082

        摘要:深度學習方法在醫學影像的分類和分割任務中表現出色,但是由于決策過程缺乏可解釋性,限制了它的臨床應用。本文利用可解釋方法引導卷積神經網絡(CNN)提出一個端到端的、可解釋的多任務學習模型(IGMTL)。IGMTL可以完成消化內鏡病變圖像的識別分類與分割任務。該模型首先利用CNN和可解釋方法得到輸入圖像的注意力圖,然后基于注意力圖得到輸入圖像的掩膜圖像,接著將掩膜圖像送入CNN,最后針對IGMTL模型提出了新的損失函數訓練模型。本文基于公開數據集Kvasir中息肉與正常盲腸兩類圖像來驗證IGMTL模型的有效性。對于息肉圖像的識別任務, IGMTL的召回率和準確率比未加可解釋引導的CNN分別提高4\%和2\%。對于息肉圖像弱監督分割任務,IGMTL弱監督分割的IoU比FCM聚類模型提高11.79\%。從弱監督分割的定性結果來看,IGMTL能夠較準確的完成息肉圖像的弱監督分割任務。因此,IGMTL模型不僅可用于病變圖像識別,還可輔助醫生的臨床診斷,或者指導非專業人士標注消化內鏡圖像的病變區域。

        關鍵詞: 深度學習 可解釋性方法 圖像分類 圖像分割 醫學影像

        For information in English, please click here

        A multi-tasking learning model based on interpretable guided CNN}%\authorCHN{劉佳, 姚蘭}%\authorENG{LIU Jia}%\affiliationCHN{% 湖南大學數學學院,長沙 410082 %}%\affiliationENG{% School of Mathematics, University of Hunan, Changsha 410082 %

        LIU Jia 1    YAO Lan 1   

        姚蘭(1978-),女,副教授, 主要研究方向:最優化方法及其應用,機器學習中的稀疏正則化方法,深度學習與醫學影像分析。

        • 1、School of Mathematics, University of Hunan, Changsha 410082

        Abstract:Deep learning method performs well in the classification and segmentation tasks of medical images, but its clinical application is limited due to the lack of interpretability in the decision-making process. This paper uses interpretable methods to guide convolutional neural networks (CNN) to propose an end-to-end, interpretable multi-task learning model (IGMTL). IGMTL can complete gastrointestinal endoscopic lesion image classification and segmentation. The model first uses CNN and interpretability methods to obtain the attention map of the input image, then generates the mask image of the input image based on the attention map, and finally feeds the mask image into the CNN. A new loss function is proposed to train the IGMTL model. This paper verified the effectiveness of the IGMTL model on two types of images, polyps and normal cecum, in the public dataset Kvasir. For the polyp recognition task, the recall and accuracy of IGMTL were 4\% and 2\% higher than those of the CNN without interpretable guidance. For the weakly supervised segmentation task of polyp images, the IoU of IGMTL was 11.79\% higher than that of the FCM clustering model. From the qualitative results of weakly supervised segmentation, IGMTL can accurately complete the weakly supervised segmentation task of polyp images. Therefore, the IGMTL model can not only be used for lesion image recognition, but also can assist doctors in clinical diagnosis or guide non-professionals to annotate the lesion areas of endoscopic images.

        Keywords: Deep learning Interpretable method Image classification Image segmentation Medical image

        Click to fold

        點擊收起

        基金:

        論文圖表:

        引用

        導出參考文獻

        .txt .ris .doc
        劉佳,姚蘭. 基于可解釋性引導CNN的多任務學習模型[EB/OL]. 北京:中國科技論文在線 [2023-05-12]. http://www.cielomedsolutions.com/releasepaper/content/202305-76.

        No.****

        動態公開評議

        共計0人參與

        動態評論進行中

        評論

        全部評論

        0/1000

        勘誤表

        基于可解釋性引導CNN的多任務學習模型