<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      醫(yī)療科技 正文
      發(fā)私信給老王
      發(fā)送

      0

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      本文作者: 老王 2019-10-01 10:00 專題:ISICDM
      導語:連續(xù)舉辦三屆的ISICDM已經(jīng)發(fā)展為世界級的理工醫(yī)交流會。

      四年前,在MIT一次學術交流會上,不少學者已經(jīng)開始把醫(yī)學圖像分析的研究分為兩大流派:數(shù)學建模派和深度學習派,并據(jù)此站隊。

      組織方也針對這一問題,讓眾多國際知名專家展開了一系列的辯論,探討哪種方法才是醫(yī)學圖像分析的未來。

      MICCAI創(chuàng)始主席、ISICDM大會主席之一James Duncan教授在接受雷鋒網(wǎng)采訪時回憶到,“那個時候,深度學習在醫(yī)學圖像領域的應用還不像現(xiàn)在這樣火熱。所以我當時的選擇是站在數(shù)學建模派這一方,但隨著深度學習的快速發(fā)展和不斷優(yōu)化,它逐漸改變了我最初的看法。我現(xiàn)在更加認定未來這兩派之爭的結果,將會介于數(shù)學建模和深度學習兩者之間。所以,每隔一段時間我都會將不同的新老方法進行融合。”

      兩年后,圖像計算與數(shù)字醫(yī)學國際研討會(ISICDM)首度在成都召開,該論壇創(chuàng)辦的初衷,一方面是推動理工醫(yī)交叉融合,另一方面,創(chuàng)造了一個絕佳的平臺,讓國內學者與世界級知名理工專家一同探討數(shù)學建模與深度學習方法。

      四年后的今天,連續(xù)舉辦三屆的ISICDM已經(jīng)發(fā)展為世界級的理工醫(yī)交流會。

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      在近期結束的第三屆ISICDM中,中國科學院院士徐宗本教授、美國工程院院士John Gore教授,加拿大皇家科學院院士Terry Peters教授,英國皇家科學院院士郭毅可教授,四位院士蒞臨本次大會。

      與此同時,MRI主編(美國工程院院士John Gore教授)、Medical Image analysis主編(耶魯大學James Duncan教授)、IEEE TBME主編(芝加哥大學潘曉川教授)也在大會的多個環(huán)節(jié)中發(fā)言。

      這是雷鋒網(wǎng)連續(xù)三年作為大會的首席合作媒體,對大會進行獨家報道。前兩日的報道可閱讀《ISICDM大會首日:81大專題報告,審視醫(yī)學AI的過去、現(xiàn)在與未來》、《后深度學習時代,醫(yī)療 AI 將走向何方?》

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      芝加哥大學教授、IEEE TBME主編潘曉川

      大會最后一日,芝加哥大學教授、IEEE TBME主編、IEEE Fellow潘曉川作為開場嘉賓,發(fā)表重要演講《Opportunities for Basic Research on Image Reconstruction in X-ray Tomography》。

      演講中, 他首先介紹了CT的成像原理,并為Dx CT圖像重建的基礎研究機遇做出預判,潘曉川總結出了各個基礎研究方向機會的大小:普通Dx-CT:幾乎沒有;設計新Dx-CT:幾乎沒有;低劑量Dx-CT:幾乎為零;心臟Dx-CT:機遇很小;雙能DX-CT:有一點;光譜Dx CT:有。

      隨后,潘曉川談到在x射線斷層成像領域,有足夠的機會進行圖像重建研究:

      1. 新興應用程序/市場需要新的系統(tǒng)/工作流

      2.X光中小型供應商比Dx-CT供應商,更加愿意允許訪問其系統(tǒng)的(原始)數(shù)據(jù)和關鍵知識

      3.關鍵部件變得更加容易獲得

      4. 可為研究或應用/市場開發(fā)自己的系統(tǒng)或子系統(tǒng)

      5. 可以對新算法進行調整,以改進現(xiàn)有算法,或啟用新的特定于應用程序的系統(tǒng)/工作流。

      他認為,Dx CT圖像重建的基礎研究機會有限,而針對特定的、新興應用或利基市場中,X線斷層成像的需求將會越來越大。因此產(chǎn)業(yè)界有足夠多的機會進行技術研發(fā),從而生成出更多的產(chǎn)品、應用,甚至是創(chuàng)造全新的市場。

      最后,潘曉川談到了基礎研究的價值與主張。他介紹到,研究者可通過基礎研究發(fā)現(xiàn)可概括的知識和見解,并建立技能和信心,同時提高推理能力。在這過程中,需通過建立合理的算法/系統(tǒng)/工作流模型,初步測量一個可觀的參數(shù)空間,消除參數(shù)空間中不需要的部分,如部分模型。并通過嚴謹?shù)恼摀?jù)和研究條件陳述,做出完全真實和精確的學術主張,如所涉及的參數(shù)和優(yōu)度指標,保持研究的相關性、重要性和嚴謹性,避免聳人聽聞、夸大的說法。

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      英國皇家工程院院士郭毅可

      第二位嘉賓為英國皇家工程院院士、英國帝國理工學院教授郭毅,他在大會報告《Data-efficient Deep Learning in Medical Images》中表示,人們常常在談大數(shù)據(jù),但數(shù)據(jù)大不一定是好事。大了也可能存在“垃圾”多、不智能、抽象不夠等問題。因此,研究者應該花更多精力去研究用小數(shù)據(jù)做事情。

      這里就需要涉及到一個重要問題,即如何定義數(shù)據(jù)效率?

      郭毅可談到兩點:一是使用較少的訓練樣本來實現(xiàn)相同的性能,二是使用相同數(shù)量的訓練樣本以獲得更好的性能。他強調到,1和2這兩個標準并不相同:只有“1”可以證明數(shù)據(jù)效率,“2”則展示了學習的穩(wěn)定性。

      而用好小數(shù)據(jù)的關鍵,其中非常重要的一點在于我們怎樣才能更好地應用好知識,引入先驗知識的學習模式是提升數(shù)據(jù)效率的關鍵。引入的知識可分為兩類:外部知識和內部知識。

      其中,外部知識的學習模式有:貝葉斯定理(統(tǒng)計先驗)、零(少)樣本學習(先驗知識圖譜)、數(shù)據(jù)同化、深度標注:將訓練數(shù)據(jù)遷移到細粒度級別的標注,如:Deep Poincare Map(引入動態(tài)系統(tǒng)的細粒標記)這四類方法。

      而內部知識的學習模式包含:序列學習(bagging、boosting模型集成方法)、遷移學習、Deep boosting三大類方法。

      其中,以用于精準醫(yī)學圖像分割中的細粒標記(數(shù)據(jù)顯微鏡)的Deep Poincare Map為例。郭毅可提出,醫(yī)學圖像分割通常采用binary label maps的形式,缺乏一些基本的先驗信息(如放射科醫(yī)師的繪制過程)。

      因此,可通過為每個標簽構造一個動態(tài)注釋系統(tǒng)來生成/輸出先驗信息。這使得我們能夠從單個訓練樣本中提取“深度”信息,從而提高數(shù)據(jù)效率。

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      紐約州立大學石溪分校教授梁正榮

      隨后,美國紐約州立大學石溪分校教授、IEEE Fellow梁正榮。梁教授分享了《Deep Texture Analysis: a Potential Solution to Why CNN Machine Learning Goes with Experts' Scores,Not the Pathological Reports》。

      首先,梁正榮介紹了神經(jīng)網(wǎng)絡的背景,人工智能技術在計算機被人類應用不久后便開始萌芽,人工神經(jīng)網(wǎng)絡可看作是第一代人工智能,而人工神經(jīng)網(wǎng)絡也通常被用作手工圖像特征分類器。但人工神經(jīng)網(wǎng)絡分類器經(jīng)常被證明不如其他分類器,如SVM、RF等。多年后,卷積神經(jīng)網(wǎng)絡CNN孕育而出,它可以看作是第二代人工智能。CNN比人工神經(jīng)網(wǎng)絡強大得多,因為CNN既能提取圖像特征,又能對特征進行分類。

      隨后,他介紹了“ 異質性(heterogeneity)”和“紋理(texture)”這兩大概念。

      1異質性是病變演化和生態(tài)學的足跡,是病變進展和干預反應的指標。

      2 .異質性通過病變體積的圖像對比度分布反映出來。

      3.圖像紋理代表了對比度的分布,已被認為是一種有效的描述病變異質性的方法。

      4.因此需要定量成像。

      在此條件下,梁正榮得出三個結論,其分別為:

      一、紋理與病變的異質性密切相關,也同樣與病變病理相關。因此,從紋理圖像/特征中學習是臨床所需:

      l  從單個數(shù)據(jù)集中提取多尺度紋理

      l  從單個數(shù)據(jù)集中放大紋理或“Big Bang”

      l  多尺度和紋理“Big Bang”來自多模態(tài)數(shù)據(jù)量,如能譜CT和多光譜MRI (T1、T2、彌散等)。導致大量紋理圖像/特性。

      二、放射組學方法面臨著處理大變量的挑戰(zhàn)

      Max { AUC [ A , B , C , D , E , F , G , ..]}

      三、條件多模態(tài)數(shù)據(jù)集成策略緩解了這種挑戰(zhàn)

      AUCA [ A@ B丨A ] = AUC [A+] ≥AUC [ A ]

      隨后,梁正榮通過一個實際案例,引出自適應機器學習和數(shù)據(jù)集成這兩大演講重點,并介紹了紋理放大或Big Bang模型的方法對比。

      異質性->小數(shù)據(jù)集->體素具有明顯的對比:

      ?原始圖像的一階導數(shù)得到一階梯度圖像;

      ?原始圖像的二階導數(shù)得到二階曲率圖像;

      ?如果噪音可以控制,可能會得到更高的階數(shù)。

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

       從左往右:梁正榮、潘曉川、Aaron Fenster、Terry Peters、John Gore。

      大會上午的最后環(huán)節(jié),則是【后深度學習時代的醫(yī)療人工智能】專題圓桌論壇,其中由MICCAI創(chuàng)始主席、ISICDM大會主席之一James Duncan擔任主持,參與討論的嘉賓分別是紐約州立大學石溪分校教授梁正榮、芝加哥大學教授潘曉川、加拿大衛(wèi)生科學院院士Aaron Fenster、加拿大皇家科學院院士Terry Peters和美國工程院院士John Gore。

      第三次人工智能浪潮到來后,以深度學習為代表的方法成為圖像處理技術的主流。但是隨著深度學習的魯棒性不足、缺乏可解釋性、對大量高質量訓練數(shù)據(jù)和手工標注的依賴等不斷出現(xiàn)的問題,研究者們對這項技術也提出了質疑。

      未來,深度學習技術將會如何進一步發(fā)展?傳統(tǒng)數(shù)學建模的方式是否會再次崛起?幾位嘉賓圍繞本次圓桌的主題分別提出了自己的見解。

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      艾倫腦科學研究所大腦大數(shù)據(jù)研究組組長彭漢川

      在下午的第一場演講中,美國艾倫腦科學研究所大腦大數(shù)據(jù)研究組組長彭漢川發(fā)表演講《Brain Big Imaging Data - Big Machines Big Brains》

      彭漢川教授現(xiàn)任艾倫腦科學研究所大腦大數(shù)據(jù)研究組組長,AIMBE Fellow。圍繞大腦這個研究方向,他和團隊開發(fā)和使用了許多機器學習、人工智能、數(shù)據(jù)挖掘和成像方法來處理復雜和大規(guī)模的大腦數(shù)據(jù)、基因表達數(shù)據(jù)和其他類型的數(shù)據(jù)。

      彭漢川教授介紹了他們團隊研發(fā)的用于腦科學大數(shù)據(jù)采集、處理和分析的技術手段,包括一系列對神經(jīng)元進行跟蹤和可視化的算法、軟件和硬件系統(tǒng),并且分享了利用這些技術手段進行實際研究取得的成果和體會。

      他打趣到,研究大腦最重要的并不是算法,而是經(jīng)費,艾倫腦科學研究所正好在這方面有著先天的優(yōu)勢。

      隨后的報告中,彭漢川介紹了大腦影像大數(shù)據(jù)研究中的一系列熱點問題,重點講述了如何針對單神經(jīng)元分辨率的影像數(shù)據(jù)進行工業(yè)級的分析和應用,并對所使用的虛擬現(xiàn)實、大數(shù)據(jù)組織、人工智能算法等工作進行了詳細闡述。其中他重點講解了2016年發(fā)表在Nature Methods的Vaa3D-TeraFly方法,該方法具備三大功能,分別是:

      l  非常快速的teravoxel-scale圖像三維可視化

      l  復雜三維結構的編輯與注解

      l  可對海量圖像數(shù)據(jù)進行隨機訪問,進行自動分析

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      利物浦大學數(shù)學科學系教授陳柯

      下午第二位演講嘉賓為英國利物浦大學數(shù)學科學系陳柯教授,他的演講題目是《Variational Models for Image Registration: from shallow approaches to deep learning methods》。

      陳柯現(xiàn)任英國利物浦大學終身教授,皇家御批數(shù)學家,英國國家基金委利物浦數(shù)學與健康科學研究中心(英國5中心之一)主任,利物浦大學物理科學院主管國際化的副院長。

      在大會報告中,陳柯教授主要展示了關于多模態(tài)圖像配準的數(shù)學公式和變分模型。

      在介紹單模圖像配準問題時,他以腫瘤圖像為例,說明圖像配準的目的是對兩幅相同或不同類型的圖像進行對比,以用于腫瘤診斷和生長,隨后他提出了基于Beltrami微分幾何的新模型,并對比了約束模型。在闡述多模態(tài)圖像配準問題時,他提出“要以兩幅圖的直方圖進行比較,而不僅僅以灰度進行比較”,并提出了不同光照條件下的聯(lián)合圖像強度校正與配準的新模型。最后他總結到,現(xiàn)有的多模態(tài)模型仍有很大改進,醫(yī)學圖像方面也有很多值得深入思考的問題,帶來了與數(shù)學相關的新理論和新算法的挑戰(zhàn)。此外,他也介紹了多個改進多模態(tài)相似性的方法和無監(jiān)督學習算法。

      最后他從更宏觀的角度給出了數(shù)學研究人員和企業(yè)從業(yè)者的建議。

      數(shù)學開發(fā)人員應該應用好建模工具和方法,如

      1.用越來越魯棒的模型來建模逆問題

      2.在學習框架中實現(xiàn)變分模型

      對于業(yè)界從業(yè)者而言,模型越精確,精度就越高,對于速度要求來說,學習可能是最好的,需要進行更緊密的協(xié)作來定義新任務。

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      巴黎多芬納大學教授Laurent D. Cohen

      第三位演講嘉賓是法國巴黎多芬納大學教授Laurent D. Cohen,Laurent D. Cohen是歐洲宇航防務集團科學研究獎和Taylor & Francis獎獲得者,IEEE Fellow。本次報告,他發(fā)表的演講是《Active Contours Revisited Through Geodesic Methods》。

      近些年他主要探索圖像分析和計算機視覺的變分方法和偏微分方程的不同問題。例如,基于邊緣或基于區(qū)域活動輪廓的可形變模型以及對象分割和識別的機器學習方法。

      在演講中,Laurent D. Cohen教授分別講解了最短路徑算法、快速行進算法、Front Propagation算法、各向異性最短路徑和Tubular model,以及Finsler度量的四種方法:主動輪廓模型 & Alignment term、基于曲率懲罰模型、Region-Based、Front Propagation的分割。

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      空軍軍醫(yī)大學第一附屬醫(yī)院消化內科主任醫(yī)師吳開春

      隨后,空軍軍醫(yī)大學第一附屬醫(yī)院消化內科主任醫(yī)師吳開春帶來演講《胃癌分子影像內鏡進展》,吳開春是空軍軍醫(yī)大學第一附屬醫(yī)院消化內科主任醫(yī)師、教授,長期從事消化內科臨床診治和基礎研究工作。

      首先,吳開春講到了分子影像國際研究的進展,其中突破腫瘤傳統(tǒng)診療方法包括精準醫(yī)學和分子影像。那么如何進行早期診斷、精準治療和改善預后?吳開春談到了分子成像探針這一方法,該方法可輔助早期分子水平診斷、腫瘤代謝的可視化、腫瘤邊界精確定位、延長患者生存時間。

      緊接著,吳開春陸續(xù)講解了相關技術方法在卵巢癌精準手術、膀胱癌精準手術、胃癌特異性探針皮下腫瘤模型成像、內窺鏡分子影像研究、早期特異性識別克羅恩病、早期食管癌診斷、早期腺瘤性結腸息肉診斷等問題中的應用案例。

      并深入介紹了切倫科夫內鏡分子靶向成像最新研究,切倫科夫效應即放射性核素在發(fā)生衰變時除了發(fā)出射線,還可產(chǎn)生近紅外和可見光。具有多種核素可作為光源成像靈敏度高的優(yōu)點,具備核素成像的高靈敏度和光學成像的高分辨率同時避免了傳統(tǒng)光學染料的生物毒性。

      切倫科夫成像的模塊結構,總共可分為探頭(大孔徑物鏡)、高透光纖傳像束、耦接放大鏡、傳光光纖、EM-CCD相機和LED定標光源這幾部分。

      集成了切倫科夫成像模塊的多模態(tài)內鏡設備,整個邏輯結構的信號采集模塊由常見的白光成像模塊和正在重點研究的切倫科夫成像模塊、顯微成像模塊組成,實現(xiàn)三種成像的融合,從而讓這三種模塊分別獲得白光結構信息、功能分子信息、細胞顯微信息。

      切倫科夫內鏡設備模塊的難點在于切倫科夫信號非常微弱,因此如何實現(xiàn)微弱切倫科夫信號的高靈敏度收集,是一個較為棘手的難題。而在近一年來,吳開春團隊正在解決切倫科夫信號的高效采集,從而實現(xiàn)離體/在體靈敏度提高三倍。

      最后吳開春總結到:今天是解剖結構影像的時代,未來則是多模分子影像時代。

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      印第安納大學醫(yī)學院副院長黃昆教授

      最后一位登場的演講嘉賓是美國印第安納大學醫(yī)學院副院長黃昆教授,他的演講題目是《Computational Pathology and Genomics-An Integrative Analysis》。

      黃昆教授首先介紹了如何使用醫(yī)學圖像進行定量表型分析,以及如何實現(xiàn)不同規(guī)模特征的融合提取方法與工作。他認為,實驗樣本的獲取具體來說就是基因型(genotype)數(shù)據(jù)與表型(phenotype)數(shù)據(jù)的整合與特征提取工作。

      隨后他教授講述了整合基因組學/跨組學的方法,如:

      行為、證候與臨床結果(EMR)

      形態(tài)學(亞細胞、細胞、組織、器官)

      蛋白質組(分析、數(shù)量、修飾)

      轉錄組(基因表達,非編碼RNA)

      表觀遺傳學(DNA甲基化,組蛋白修飾,microRNA)

      基因型(DNA - SNV,CNV,結構變異)

      報告還分享了關于愈后存活時間的預測方法以及一些基于集成(integration)的網(wǎng)絡整合方法與工作,以及基于深度學習的癌癥預測方法,并對其可解釋性問題進行了分析與探討。

      其中,黃昆介紹了一個關于深度學習可解釋性的案例,他談到當初有一名學生想做Deep Learning Based Integration,但黃昆提出一個要求就是這項研究的結果必須可解釋。于是他的學生先把特征加進去然后訓練出一個結果,然后再把特征一個個剔除,最終總結哪些特征對結果影響最大,計算出影響大小,并得出一定的原因,實現(xiàn)了一定程度上的可解釋性。

      醫(yī)療 AI 兩大學術流派的“對立”與“融合”丨ISICDM

      ISICDM大會主席之一James Duncan

      隨著最后一位嘉賓演講的結束,第三屆ISICDM正式進入尾聲,本次大會主席之一James Duncan上臺做閉幕致辭。

      這之后,James Duncan在接受雷鋒網(wǎng)采訪時談到了他內心的感受。

      “這是我第二次參加ISICDM,我每次來都會在中國待上一段時間,和中國的學者以及在校學生們一起深入交流。ISICDM的一個重要特色就是讓數(shù)學模型和深度學習兩大派學者代表一起做報告、交流和辯論。大約三、四年前,我在MIT和MICCAI也有類似的經(jīng)歷,我們討論數(shù)學模型和深度學習兩者孰優(yōu)孰劣的問題。”

      “而現(xiàn)在的ISICDM不僅把當年MIT和MICCAI的一個臨時議題做成一項頗為偉大的事業(yè),同時加入了很多臨床醫(yī)學的元素,這是一個重要創(chuàng)新。我們所處的領域,理工一旦離開醫(yī),本質上就是閉門造車。而醫(yī)在整個流程中扮演的角色越來越重要,因此學術界乃至產(chǎn)業(yè)界偶讀需要ISICDM這樣的研討會,讓理工醫(yī)專家們取長補短,互通有無,推動理工醫(yī)交叉的長期發(fā)展。”

      雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知

      分享:
      相關文章

      編輯

      微信 wangyafeng123456
      當月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 久久人妻无码AⅤ毛片评价| 五月综合色婷婷在线观看| 国产久9视频这里只有精品| 亚洲av永久无码精品秋霞电影影院 | 国产无遮挡18禁网站免费| 武强县| 国精品无码一区二区三区在线| 人人操网| 东京热AV无码| 最新亚洲av日韩av二区| 国产精品偷伦费观看一次| 午夜dj高清免费观看视频| 日本五区在线不卡精品| 亚洲精品乱码久久久久久不卡| 91人人操| 国产97色在线 | 免| 人妖91| 亚洲国产精选| 91豆花成人社区在线| 日韩人妻OL丝袜AV一二区| 人人妻人人澡人人爽| 久久精品a一国产成人免费网站| 久久天天躁狠狠躁夜夜av| 焦作市| 无码人妻丰满熟妇精品区| 无遮高潮国产免费观看| 色哟哟www网站入口成人学校| 小泽玛利亚三级片| 一 级做人爱全视频在线看| 一卡二卡三卡| 男人吃奶摸下挵进去好爽| 一区二区三区免费| 性人久久久久| 国产人免费人成免费视频| 欧美在线观看www| www.欧美精品| 亚洲高清成人aⅴ片777| 少妇人妻88久久中文字幕| 欧美一级高清片久久99| 亚洲国产制服丝袜 | 国产av国片精品|