• 首頁 > 觀點 > IBM認知醫療總監謝國彤:個性化、循證的智慧醫療

    IBM認知醫療總監謝國彤:個性化、循證的智慧醫療

    2017-05-23 觀點 Eli

    IBM認知醫療總監謝國彤:個性化、循證的智慧醫療-智醫療網

    據 healio.com 最新報道,IBM Research 采用深度學習,根據國際上臨床糖尿病視網膜病變量表,可在20秒內測出病變嚴重程度,在準確性上取得了最高記錄。IBM稱,這項技術將大大提升效率,幫助醫生篩選出更多的糖尿病患者,并更快速地指出需要專科護理的患者。2017年5月16日的北大 AI 公開課第十二講上, IBM 中國研究院認知醫療研究總監、IBM 全球研究院醫療信息戰略聯合領導人謝國彤親臨現場,和北大人工智能創新中心主任雷鳴老師一道,就 AI 技術在醫療領域的應用展開了深入探討。

    IBM 中國研究院認知醫療研究總監、IBM 全球研究院醫療信息戰略聯合領導人謝國彤來到北大 AI 公開課第12講,和北大人工智能創新中心主任雷鳴老師一道,就 AI 技術在醫療領域的應用展開了深入探討。內容涵蓋:

    1. 醫療大數據及Watson健康概述

    2. 醫療文本挖掘和腫瘤輔助治療案例

    3. 醫療影像分析和皮膚癌輔助診斷案例

    4. 結構化醫療數據分析和真實世界證據案例

    5. 認知決策技術和慢性病診療案例

    6. 自然語言問答技術和疾病管理案例

    雷鳴老師開場白:今天我們非常有幸請來了IBM中國研究院負責智能醫療方向的研究負責人謝國彤博士,謝博士在過去十年都在做醫療方向的研究,參與IBM Watson的醫療研究,包括醫療與人工智能結合之后,認知、感知和醫療的結合。在中國也帶領了一個很大的研發團隊,跟美國、歐洲、日本等 IBM 的研究機構共同合作,推進、解決一些對人類非常有意義有價值的事情。我們也知道Watson在癌癥診斷、醫學影像等方面有非常好的進展。今天,我們特別高興地請謝國彤與大家分享一下 IBM 在AI+醫療方面的進展,以及分享一下醫療+人工智能方向未來會有什么樣的發展、突破和挑戰,我們以熱烈的掌聲歡迎他。

    類腦芯片走得會更遠

    謝國彤老師:謝謝雷鳴老師。非常榮幸有機會來跟北大的同學和老師們分享一下IBM在醫療方面如何用人工智能技術來解決醫療問題,以及我們做過的一些嘗試。今天,主要想跟大家分享一些趨勢和具體的案例。我們用什么樣的技術解決什么樣的問題,希望能夠給大家一些啟發,我們可以來討論怎么樣把醫療AI做得更好。

    我叫謝國彤,負責 IBM 中國研究院的醫療研究工作。同時,IBM 在全球有12家研究院,除了南極洲之外,每個大洲都有 IBM 研究院,我們整個醫療研究團隊是一個全球的團隊。我和另外幾位同事一起也負責制定全球IBM研究院在healthcare informatics(醫學信息學)方面的研究重點。這是第12次課了,各位已經聽到了很多人工智能的技術,包括人工智能在產業的應用,不管在金融、交通、駕駛、生命科學各個方面,可能都聽到了很多案例。

    其實這場人工智能運動,IBM 是最早的參與者之一。在2011年,IBM當時推出了Watson系統,能夠與人類進行智能問答競賽。從11年到現在已經過去六年的時間了,我們的體會是把一個通用的人工智能系統應用到行業不是簡單的事情,不是說有一個通用的算法,結合行業的數據一跑,就可以得出一個結果,去改變行業。這是一個很美好的夢想,但是現實更復雜。所以在過去的六年時間,我們經過了大量嘗試,將這些技術應用于能源、交通、金融、醫療的方方面面,也取得了一些成績。

    IBM做其實醫療,核心只想解決一個問題——怎么樣利用數據挖掘和人工智能的技術,從海量的醫療數據中間去挖掘出證據,利用這些證據給患者提供循癥的個性化醫療服務,這也不是一個非常獨特的vision,因為數據分析技術從它誕生的第一天就與醫療有關系,現在很多人工智能技術的基礎——比如概率論的發明,最早就是解決歐洲的疫苗接種問題。所以數據分析和醫療從第一天起就是相關聯的。但是,為什么到現在又成為了一個非常熱門的話題,成為一種可能。我個人認為有兩個主要的原因:一是計算機算的快,算得過來了;二是數據在那,有東西可算了。

    先看看計算機算得過來了。各位很多可能是學computer science,學IT的。隨著不管是像Hadoop、Spark這樣的并行計算,還是像GPU、FPGA這樣的硬件加速發展,計算機的處理能力有了性能上的飛躍發展。我今天也借這個機會,與大家分享在芯片這個領域計算能力的突破性發展。

    從圖靈那篇著名的論文證明了計算機是能做出來的,然后到馮諾依曼從工程上提出了馮諾依曼架構,證明計算機是怎么做出來的,這些工作都是在二戰前后(1950年前后)。半個世紀過去了,其實計算機最核心的計算部件CPU并沒有本質變化,與當年馮諾依曼和圖靈設想的沒有太大變化,只不過做的更小了,集成度更高了,計算能力更強了。但是最近幾年,計算能力方面,CPU的計算技術上有了突破性的發展。

    第一個我想介紹的話就是類腦芯片。目前,IBM、國內中科院、其他的公司都在做這方面的工作,類腦計算芯片的核心想法就完全突破了以前馮諾依曼通過加法器這樣的一套計算框架,而是從神經元的角度做一個芯片。這個芯片中,沒有我們在通用CPU中看到的東西,而是一個neuron(神經元),然后神經元之間通過神經元的突觸把它連接起來。這樣一個架構天生就是一個神經網絡,可以完成這種基于神經網絡的一些算法,比如CNN或者DNN算法,有天生的優勢。

    目前,一個芯片上有上百萬個神經元與神經元之間的連接,synapses(神經突觸)可以達到兩億五千多萬個。這樣一個非常復雜的芯片功耗非常低,只有70毫瓦。大概一個智能手機的功耗在五瓦左右,它的能耗是你手機的1%,是筆記本電腦的千分之一。所以你可以設想一下,一個擁有上百萬個神經元,幾億個神經觸突的芯片,可以做得如此的小,如此的低功耗,去運行模式識別或者deep learning這樣的task,然后放在各種各樣的傳感器上,這就是大家講的邊緣計算。

    所有的事情都成為了可能,這是計算芯片技術的一個大突破。類腦芯片,用人腦的神經元架構來去構造芯片。

    另外,我想介紹的就是IBM Q就是IBM的量子計算機,名字是IBM Q,聽起來萌萌噠的。

    我當時看到圖片的第一感覺是好像看到了四五十年代的傳統主機,大的像一間房子一樣。目前這個機器就在IBM研究院總部。它只有五個量子位,是一個很小的量子計算機。但實現了一個技術上的突破,可以保證五個量子位可以有穩定的輸出。

    IBM新的計劃是會推出有50個量子位的量子計算機。其實我一開始也不太理解為什么要做50個,后來查了一些量子計算的文章,目前從理論上推算,49位的量子位可以達到現在所有超級計算機的計算水平,如果你能夠做到50位的,就可以beat目前所有的超級計算機,所以會比類腦芯片走的會更遠。可以預見在未來,計算能力的突破是非常可觀的。以后的所有軟件,可以設想有無限的計算能力來支撐,那么很多想法都是完全不一樣的。

    沒有單一數據模型能夠覆蓋多模態的醫療數據

    從計算能力再跳回醫療本身,就是第二個因素,就是醫療數據的爆炸,算得過來也有數據可算了。

    這是醫療界關于醫療數據的調研,或者從IBM視角來看醫療數據分析包括三大類的數據:臨床數據、基因數據和大健康數據:1)臨床數據,就是醫院產生的數據,一個人去醫院會做檢驗、開藥、拍片,這都是醫院產生的數據,有一個測算臨床數據對人健康的影響有10%;2)基因數據,就是與生俱來的數據,對人的健康影響有30%,有很多人在做基于基因的診斷,包括腫瘤治療。當年女神安吉麗娜朱莉做過一個乳腺切除,也是因為經過基因測序,發現有一些遺傳上的變異;3)大健康的數據,就是目前醫院和基因之外,所有與健康相關的數據,包括飲食、運動、工作、在社交媒體上發泄的情緒。

    醫療數據分析就是要從海量的醫療數據中,尋找醫學證據,然后利用這些證據提供更加個性化的基于證據的臨床治療。我們來看一看,從IBM的視角來看,有了計算能力和數據,能做些什么。

    那從IBM角度來看,目前做三件事情:1)做一個醫療數據云,把醫療數據先存起來;2)做analytics,怎么對醫療數據進行深度的計算和分析,把它變成模型,一些API;3)做解決方案,怎么針對不同類型的醫療領域客戶,打造客戶能夠使用的具體軟件和解決方案。

    在醫療領域,我們解決兩個問題:一是解決多模態醫療數據的存儲問題。醫療數據是多模態數據,有結構化很好的數據,比如化驗單、處方;還有一些半結構化的數據,比如住院小結、出院小結、入院首頁,病例里面有大段的文本;還有完全無結構化的數據,比如醫療影像;還包括像基因測序這樣的組學數據;還包括時間序列數據,比如ICU里會看到一個人插著各種各樣的儀器去測量它的血壓心率脈搏等各種流數據。這些數據是不同模態的,有些數據適合用關系型的數據存儲,有些數據適用時間序列數據存儲。目前,沒有一種單一數據模型能夠覆蓋這種多模態的醫療數據,如何有好的云平臺去處理多模態醫療數據,這是需要解決的第一個問題。

    第二個問題就是安全和隱私問題,因為醫療數據的話我們有很多知道很多這種關鍵信息泄露信用卡信息泄露,醫療數據的話是非常隱私的個人數據,怎么樣對這些數據進行保護,這是云平臺一定要做好的。歐美一些國家都有針對醫療數據保護的法規。根據這個法規,醫療數據約有二十幾項關鍵的隱私數據,比如姓名、住址、電話、身份證號,進入數據管理的時候必須要打馬賽克去隱私,同時對數據進行強加密,數據即使被泄露也是不可解密的;對所有的數據訪問(誰什么時間能訪問什么)都要有一套嚴格的訪問控制,通過這樣的方式來保證數據安全性。

    簡單而言,分析層也做兩件事情。第一是對多模態醫療數據的分析,不管是結構化病歷數據、影像數據,還是文本數據、時間序列數據,不同的數據不存在單一的技術能夠對所有數據都進行一個很完美的分析,所以目前針對不同類型的數據有不同的分析方法,有些適合用深度學習的方法,有些采用時間序列的方法,有一些適合用回歸分析的方法,分類的方法,聚類的方法。

    第二,分析是與醫療領域相關的,醫學里有一些特定的問題,不是去分析照片是誰或者什么,而是分析數據里疾病風險的因素是什么,怎么樣做疾病的預測和預防,怎么樣對患者進行精準分群,可以對患者進行個性化治療或者有不同的治療方案時哪種方案對患者反應比較好(treatment effectiveness),包括影像識別怎么自動發現影像中間的病灶,都有非常強的醫學知識。從解決方案的角度來看,醫療是一個非常復雜的行業,醫院、醫生、藥廠、醫療設備制造商、健康管理機構、醫療保險公司,他們的訴求是不一樣的,不必須要針對不同類型的客戶做出不同的解決方案,可以利用底層的云平臺和分析技術。在解決方案里,我們有針對像醫院類型的醫療機構的解決方案,包括腫瘤的個性化治療,Oncologyand Genomics,醫院影像(medical imaging)的分析。還有針對藥企做新藥發現和上市藥物有效性、安全性的分析,還有幫助健康管理機構,對常見的慢性病人群(高血壓、糖尿病、慢性腎病)以及多種并發性慢病的患者進行管理解決方案,也有幫助醫療保險機構合理地valuedbased care,按照價值來付費,來進行疾病管理。在目前的平臺上,IBM通過過去兩年的收購,目前有超過2億美國人的醫療保險數據,有超過1億美國人的電子病歷數據,有超過10億張的醫學影像片子,有美國幾十個州的慢性病管理數據,把這些數據關聯起來做分析,就會發現非常有價值的,任何單一數據源都無法發現的一些insight或者evidence,可以支持上面各種各樣的應用。

    個性化腫瘤治療助手和腫瘤基因治療助手

    接下來,給大家來介紹一些具體案例。

    第一個我想介紹的是沃森個性化腫瘤治療助手。

    首先腫瘤是一個非常惡性的疾病,目前很多腫瘤也沒有什么好的辦法,但是危害非常大的。以中國為例,每年新發的腫瘤大概超過 400 萬,有一些特定的腫瘤,比如與消化道相關的食管癌胃癌發病率很高,全世界每年新發胃癌有超過40%是在中國。同時,腫瘤治療很困難。一方面疾病本身比較困難,另一方面治療方法層出不窮,各種靶向藥物,各種新的治療方法不斷的出現。如果想要做一個好的腫瘤醫生,每月要讀超過1萬篇與腫瘤相關的新的科研文獻,這是不可能的。這個解決方案的核心技術是運用自然語言理解技術,讓機器去代替人去讀書。這個系統讀了兩千多萬篇文獻,應用自然語言理解抽取里面的疾病癥狀、診斷治療、患者病情,然后構成非常復雜的知識圖譜。基于這樣的知識圖譜,當患者問診,系統會自動從患者所有的既往病歷信息中,包括檢查報告、片子、檢驗結果、病史的描述,自動抽取上百項的關鍵信息,借助后臺的知識圖譜進行一個很復雜的推理過程,給出治療的推薦治療方案,包括不同的方案與患者的契合度,這樣的信息可以幫助腫瘤科醫生更好地用最新的最好的治療方案,為患者提供個性化的治療。Watson Genetics從基因維度切入,與前面解決方案一起解決腫瘤治療。

    因為腫瘤本質上是一種基因變異導致的惡性疾病,醫生們就想能不能通過直接用藥物打靶,靶向作用到變異的基因來控制腫瘤。

    這個系統也很簡單。拿到一個患者的二代測序結果后,通過分子的profiling,在患者所有的變異基因全部找到之后,進行很復雜的pathway分析。Pathway主要通過在幾千萬篇文獻中,學習各種藥物靶向、基因變異、蛋白質作用過程等方方面面,構成了很復雜的網絡,然后推理,給出相應的靶向藥物的治療推薦。前一階段有個新聞報道,日本東京大學有一個患者得了非常罕見的白血病,然后沒有醫生沒有見過,沒有辦法確診,還甚至進行了誤診。借助這樣一個系統,很快就找到患者可能得的白血病,同時推薦了一些靶向藥物,挽救他的生命。

    Watson先讀了很多書,包括300本期刊,200多本教科書,幾千萬的文獻。這就是實際系統使用的界面,來了一個患者之后系統會推薦,每一行是一個治療方案,綠色的是最好的治療方案,包括放療、化療、手術治療、藥物治療、各種不同的治療。同時,每一種治療方案,系統會給出更多的信息,比如治療方案,愈后效果,是否有毒性,毒性是什么樣的。這些信息并不靠醫生手工提前錄入,而是由系統自動從幾千萬份文獻中,利用自然語言的理解技術,把這些關鍵信息抽取出來構造成一個知識庫,然后推送到醫生面前。

    其實,很多醫院進行腫瘤治療時,會請很多專家給出自己的治療意見,包括治療方案的優缺點。這個系統就相當于一個讀了所有的最新文獻的專家,把不同的治療方案包括副作用、不同治療方案藥物之間的相互作用,生成了一本大概有三四十頁的報告,提交給醫生,幫助醫生去做出針對患者最有利的一個治療方案。

    醫學影像

    下面想介紹的案例是現在非常火的醫學影像。醫學影像極大地推動了醫療的發展。最早醫生看病通過聽診器診斷,后來出現了X光,然后出現了更復雜的像核磁、超聲等各種簡單診斷設備。這些影像設備可以幫助醫生,更好地看到患者體內的信息,甚至包括病理,通過組織切片用高倍顯微鏡看到細胞層次的變化,做出更加準確的一個判斷。

    影像對醫學的作用太大了,所以在03年的時候,發明核磁共振的一個物理學家和一個化學家竟然得了諾貝爾醫學獎,核磁共振極大的顛覆了醫療診斷和治療。影像也是多模態數據。有一些比較常見的二維影像,比如眼底影像,皮膚癌影像,或者消化道的胃鏡腸鏡;還有一些是三維影像,比如ct或者核磁通過向切片掃描的方式,對人體進行上百次的掃描,生成一個完整的三維影像。能夠很好地用來做各種診斷和治療;還有一類是這種病理影像,主要做很多腫瘤的治療,它需要從疑似腫瘤的部位取一個組織,然后進行切片,放在高倍顯微鏡下,都是幾萬*幾萬像素的高分辨率的影像。往往一張病歷影像的片子可能就有3G-4G的大小。這些影響雖然可以提高醫療水平,但是分析同樣很困難。協和醫院想去約一個核磁或者ct可能需要一周甚至一個月的時間。機器其實是不休息,人要休息,看不過來。現在影像分析面臨的一個很大的問題——三甲醫院的醫生的話有大量片子他看不過來。同時,有一些消化道影像,比如膠囊機器吞到肚子里,一次拍一個視頻出來,做一次檢查生成3萬到5萬張影像,有病變的部位不超過30張,要從3萬張中間去找到那30張,那就是大海撈針,就要靠醫生花大量的時間去過濾掉那些無效的片子。所以影像技術的進步對醫生來說最迫切的需求就是,怎么樣利用識別技術自動發現病噪,提高他看片的效率。

    機器看片原理很簡單。首先,用一些比較經典的一些影像分析或者模式識別的方法,模擬一個醫生的看片過程,看一些視覺特征。因為很多病變部位的位置、大小、顏色、邊緣形狀都有一些視覺特征,利用這些視覺特征可以幫助計算機判斷出來是不是一個惡性的肺結節,或者是不是某一種皮膚癌。同時,計算機可以利用復雜的卷積網絡,在像素層級上看像素的變化,在像素層級上進行計算,比人看得更細致。可以通過構建多層的神經網絡去提取那些隱含的特征信息,利用這樣的信息做判斷。

    計算機角度來可以看多模態的數據。它不光看影像數據,還看病例信息、基因測序結果,將多模態的信息融合在一起,可以達到一個更好的效果。我們做過很多實驗,如果用影像分析疊加其他模態的數據,比如將病歷數據、年齡數據、歷史病例等關鍵信息抽取出來之后,病變識別的精度可以直接提高10%以上。

    我這邊給大家介紹兩個例子,一個是黑色素瘤的。

    我們將1萬張影像有標記的影像交給機器。它利用深度學習的技術學習之后,構建了一個模型,然后再從測試集里面拿出3000張讓3名醫生和計算機一起來看。人達到的精度大概是84%左右,而計算機可以達到97%。不止是IBM,很多其他公司計算機大概做到90%到95%。

    另外一個例子是消化道影像。

    每一次檢測生成的數據特別多,有 3萬到5萬張,同時里面有很多不均衡的數據,若想能夠自動將這些出血點檢測出來,就需要遷移學習技術,很多數據的預處理技術,包括data augmentation或者data resampling,然后構建出來深度學習的網絡,達到更好的識別精度。

    我給大家看一個針對皮膚癌的小視頻。用手機或各種有攝像頭的移動設備,拍一下手上的某一個色斑,上傳到后臺的云服務器上,里面已經有一個訓練好的模型。這個模型主要就是做一個分類,判斷一下影像是不是黑色素瘤,經過后臺計算之后會給出一個結果。判斷它不是黑色素瘤,顏色都是比較淺。同時系統會自動把已知的一些確診的相似的影像返回回來,幫助醫生或者患者做一個更好的判斷。

    實驗者也還選了一個已知黑色素瘤的一個確診影像,這個系統中出現紅色告警,說很大可能程度是一個惡性的黑色素瘤,同時會把一些類似的影像都會返回回來,幫助醫生來做一個判斷。

    真實世界證據分析

    下面我想給大家介紹的案例的話叫真實世界證據分析。

    它是一個醫學界的詞,對應的詞叫RCT,雙盲隨機對照臨床實驗。目前判斷一個藥或一個治療方案是否有效,必須要做RCT實驗,證明藥效或者治療方法的有效性。一個這樣的實驗平均要花十年以上的時間,要花10到15億美金,而且不超過10%的成功率。RCT是一個非常耗時耗力耗錢的方式,真實世界證據就是跟它做對應的。

    RCT實驗一般會組織幾百個人,比如五百八百人,分成組去進行實驗,要積累數據。同時每天其實生成大量的醫療數據。以中國為例,一年就診的人次接近70億人次,相當于是全國人民,每年看五次病,當然有一些老病號。70億次就診產生了大量的臨床數據,但是這些數據并沒有被很好分析,都散落在醫院的各個信息科機器上面。這些信息其實可以被用來做真實世界的挖掘,就是利用真實世界的數據,做更好的疾病治療、預防等。

    真實世界證據就是真實世界中數據,包括病歷數據、醫療保險數據、疾病數據,輸入進來,產出各種模型,比如中風病人的再中風預測模型,或心梗病人的死亡風險預測模型,或某種藥物治療有效性的模型。這樣的模型是通過這樣的pipeline得到的。我們發現,第一可以有一個通用的pipeline去解決真實世界數據分析的問題,因為過程重復,包括導入數據,數據清洗和整理,構建患者人群,抽取特征做建模。很多是通用的,比如疾病風險預測分析,患者的相似性分群分析,治療有效性分析,患者依從性分析。這樣的分析的話都可以變成一些可重用的模塊,作為一插件在平臺上來做模型生成。比如,咖啡機放入數據就會生成咖啡,里面有很多參數要調整,你是要喝美式還是拿鐵還是摩卡。我說起來比較簡單,但是就是這么一個過程,我給大家舉兩個例子。

    第一個例子的話是我們做的疾病風險預測的一個例子。

    這個數據庫里有45000個心梗病人,有超過800個變量去描述病人的基本信息,包括它的治療信息,臨床信息等。醫生想知道哪些因素會導致患者出現院內的死亡,每個患者院內死亡的可能性有多高,這就是一個典型的疾病風險預測的問題。那這個風險模型以前是有的,TIMI模型是目前醫學界公認的最好的心臟病的風險預測模型,AUC大概是在0.76,利用我們的方法AUC可以做到0.87,同時我們發現了24個新的風險因素,有很多風險因素的話是非醫療性質的,比如說一些社會性的因素或者就診醫院的一些因素,比如說家庭幸福的人不容易死。

    醫生常常也做這類分析,他們一般會有自己的假設,從800個量里面挑出15個20個,然后從4400萬個人里面挑出一千個人,用經典統計方法去做單變量多變量的回歸,去看是不是有顯著性,這是目前醫學統計常用的方法。但是用這種人工智能方法去做時,我們就會用很多新的一些方法,比如做新的特征抽取。舉個例子,我們會用共生的模式挖掘,去看這個患者既有高血壓又有糖尿病共病,會不會是一個更加有意義的風險因素。這些因素以前醫生不會考慮,是我們通過一些挖掘的方法得到的。包括一些共癥共治,比如病人同時服用A藥B藥進行治療,可能是一種很好的保護性因素,以前不會考慮A加B,或者A加B加C這樣的問題。還有包括一些生理指標,比如血壓。

    醫生首先有自己的家屬,從800個量里面挑出15到20個,人群他不見得用4萬個人,里面挑出一千個人做單變量多變量的回歸去看統計是不是有顯著性,這是目前醫生使用統計常用的方法。

    用人工智能方法來做的時候,比如說新的特征的抽取,舉個例子我們會用一些共生的模式挖掘去看,這個患者可能既有高血壓又有糖尿病,這樣的一種共病可能是一個更加有意義的風險因素,這些因素以前醫生不會考慮,這是我們通過一些挖掘的方法得到的,包括一些共治,比如說這個病人同時用了A藥和B藥進行治療,以前醫生可能用A或者B,并不會考慮A+B,還有像包括一些生理指標也是這樣,比如說血壓當前值是多少,如果這個病人血壓高壓是150,他是從90連續漲上來的還是一直持續到150,還是從180掉下來,醫生不管,醫生只通過一個時間來做判斷,其實數據時間序列的信息沒有很好的利用起來,這些都是用人工智能的方法,不管用RN建模或者其他分析的方法,可以很好的捕捉到數據之間時間序列的信息,利用這樣的信息可以做更好的預測。

    我們最后發現我們把所有的因素,我們不光發現哪一些因素有影響,同時每個因素的權重包括它的分類都列出來了,醫生就會說這個病人因為病情太嚴重導致死亡的,還是治療不給力導致死亡的,同時每個病人都會按照風險排一個序,橫坐標是一個病人的患者號,所以高風險、中風險和低風險所有病人一目了然,這樣可以幫助醫生更好對病人進行管理。

    第二個例子,我想介紹的是患者精準分群的分析,這個也是精準醫療里面非常重要的,就是什么叫精準?有兩個極端,一個極端觀點認為每個人都是不一樣的,因為每個人的基因都是不一樣的,每個人基因變異也是樣的,作為個體化治療要個性化到每個個體,這是一種很好的理想,但是現在做不好。

    另外一種人群治療,比如說二型糖尿病,這是一個定義,針對這群人怎么治?目前很多精準醫療希望在這兩個極端之間找到更多的重點狀態,以中國為例我們心血管的病人2.6億,糖尿病病人1億,這1億人肯定不一樣,他肯定不是1億種情況,也肯定不會是一種情況,怎么樣在中間找到一個更合理的分群個性化的治療,這里面我們做的一個案例是針對房顫病人做卒中的預防,房顫本身是無害的,但有病人會導致惡性的事件,比如說心梗或者腦梗,醫生要做的事情就是當來了一個病人之后要做判斷,要判斷這個病人是高危還是低危,如果高危病人要怎么治,是不是要吃法華林去進行中風的預防。

    但是如果這個治療就這么簡單也就罷了,但是很多治療都是有危害性的,以法華林為例,這個治療如果用藥過量會導致腦溢血。所以醫生每天都會面臨一個選擇,吃還是不吃,這對他們來說是一個問題。按照他們的經驗他們知道其實以前可能有一些病人不該吃的我給他吃了,但是很不幸用以前的模型不夠精準,發現不了那些不該吃的病人,我們用傳統的醫學模型認為是高危的病人,不同中風的發病率,看完這個圖之后醫生特別激動,發現了第一點,有一群人過度治療了,這群人傳統醫學方法認為是高危的,其實并不是高危的,只不過以前的模型無法捕捉到細微的區別。

    同時這群人是用某種藥物。針對這群人,如果吃這個藥物中風的發病率是9%,如果不吃則接近18%,這群人對某種治療方案反映特別好,這個治療方案在整個人群上是沒有顯著差異的。所以這就是精準的分群的方法,能夠幫助從病例數據中間挖掘出來更精準的患者的分群,然后幫助醫生做一個個性化的治療。

    它在方法上有什么特點呢?其實分群也不是一個多么新的方法,分群傳統上是一個無監督的學習,分群聚類出來很多結果臨床上是沒有意義的。我們有一些方法引入一些監督信號。

    所以這就是一個精準的分群的方法,能夠幫助從病例數據中間挖掘出來更精準的患者的分群,然后去幫助醫生做一個個性化的治療。患者按照中風的發病率分的非常開,這個方法核心是干什么事呢?

    它會判斷哪一些因素對患者聚類是非常重要的,哪一些因素比較重要,它要自動的挑出來,同時,每個因素的權重是多少,他就可以把患者分的非常開,利用這個方法它就可以挑的非常開。

    認知決策

    下面我想介紹的叫認知決策,其實這個決策知識也不是新話題,從人工智能誕生的第一天起就有專家系統了,專家系統無非就是如何把專家的知識變成計算機可以執行的規則,所以最早的人工智能,五幾年的時候斯坦福做了一個人工智能系統,當時他們針對血液病的治療,可以對血液病治療進行分析的,這就是前面的第一步。如果各位有了解,醫療里面有很多臨床指南,或者臨床路徑,這些都是醫生總結出來的一些知識和規律。

    是不是這樣就能看病了呢?如果這樣就能看病的話,醫學院的醫生讀完之后就可以當神醫了,現實不是這樣的,從書本中間學習到知識是有缺陷的,往往學習到的是比較抽象的,實際使用的時候有各種各樣的問題。比如說以糖尿病的治療為例,你會看到,當指南告訴你說這個病人血糖控制的不好,目前使用了雙胍類的藥物還是控制不住,他應該用雙胍和磺脲類聯合治療,到底怎么聯合。

    我們開始嘗試另外一條路徑就是用數據驅動,用一些機器學習的方法,不管用什么樣的模型,可以用各種各樣的模型去做基于數據的推薦,簡單的說就是你看到類似的病人都是怎么治的,治完之后效果好不好就可以得到類似的治療方案,這樣出來的結果的好處就是,所有知識都是從數據中間學習出來的,它的數據推薦最接地氣。當然它也有缺點,它的缺點是數據往往都是有漏洞的,你的知識是從這個數據上學習出來的。

    另外,很多計算機的模型是黑盒子,它對醫生來說不可解釋,你不能給我一個模型告訴我說怎么治,也不告訴我為什么,我們這個過程當中發現了一個真實的例子。我們以前拿了幾萬糖尿病病人超過5年的數據。我們發現,降糖方案最好的方法到底是什么?最好的方法就是上胰島素。醫生說你們不是開玩笑嗎,我們治療分一二三四線,胰島素是最后的,一二三線藥物控制不住的時候才會這樣,這背后是有一個生物學的邏輯的。對計算機來說,效果最好的就是上胰島素,所以后來我們說,其實你看這個過程,特別像一個醫生的成長過程,一開始是讀書,他能夠把一些理論的框架和一些非黑即白的知識挖掘出來。但是真實世界很復雜,它復雜在哪呢?就是復雜在數據這一塊,因為醫療不是非黑即白的事情,面對一個患者的時候,往往是有多種選擇的,每一種選擇都有優缺點,并不是說存在一個單一最好的選擇。每一種選擇應用到患者身上之后,它的效果也是不確定的,這個患者好,那個患者不好,這簡單來說就是概率。

    所以其實好的醫生畢業之后通過大量的學習,看老醫生看病,在自己腦子里面構建了一個概率模型,知道這種情況下會有這幾種選擇,哪一種選擇靠譜可能性大一點,這恰恰是計算機非常擅長的。我們最后做出來的這個方法就是用指南和臨床知識作為一個骨架,從數據中間學習各種從疾病的篩查、診斷、治療、預后相關的概率模型,把它作為血肉,添加到指南的骨架之后,就變成一個非常完整的臨床決策的知識庫。

    最后,我再給大家介紹一個例子,這是一個技術,這個技術它到底能怎么用?我們把它用到慢性病管理領域里面,中國現在的慢性病患者超過3億,包括2.6億高血壓,1億糖尿病,1億系統疾病,還有慢性的腫瘤患者,這些患者,靠的是大概100萬的社區醫生來進行管理。面臨的現狀就是管不過來,所以這些醫生,他們一年大概接受兩天的培訓,幫助他們了解最先進的治療方案,而且他們一個人不是管一種病,他們一個人至少管20種病以上,這對他們來說是一個巨大的挑戰。

    從計算機角度來看,我們幫他們做什么呢?我們選擇了兩個場景,一個場景是做疾病的預防,我們幫助醫生把那些有并發癥風險的高危患者盡可能挑出來,比如說糖尿病患者可以并發到超過30萬并發癥,怎么樣可以把那些還沒有得中風,還沒有得心梗的糖尿病患者及早的發現出來,讓醫生進行一些預防性的手段,這樣做預防能降低病人的痛苦,同時也降低醫療的成本。

    第二塊就是治,這個角度我們主要考慮,怎么樣利用這種臨床指南的知識,和我們從幾十萬、上百萬的這種糖尿病病人治療既往的數據中間挖掘出來的證據結合在一起,給醫生一個針對當前患者最好的治療方案。這一塊我也給大家看一個小的視頻,這是我們實際使用的情況,這個情況你可以看到,我們目前這個系統跟醫生用的電子病例做了一個整合,目前有6000個病人已經使用這個系統進行治療,每個月系統生成的推薦接近2000,而且還在持續增長。可以看到,醫生接受新鮮事物的情況很有意思。這個社區的醫生,他一開始不愿意接受新鮮事物,慢慢就接受并達到了很好的使用水平。

    這個系統模擬社區醫生的一個工作平臺,醫生還要進行隨訪,這個系統會自動把患者按它的風險給他排高中低排出來,同時為什么這個病人有風險,比如說這個病人為什么有中風的風險,風險模型是什么,有哪一些數據導致他有這樣的風險,我們會幫助醫生把風險因素找到,同時給他做一個治療的推薦,這個病人應該降糖、降壓、降脂,包括劑量頻率等等,都是從數據中間挖掘出來的,類似的病人都用了什么樣的治療方案,效果怎么樣,把這樣的信息推送給醫生,這里面所有的證據,針對治療系統發現說這是指南里面的證據,包括有接近26%的病人用了這樣一個治療方案,這些病人都是有糖尿病,高血壓年齡是在55到75歲,其中很大部分人用了這種治療,另外一部分人用了另外一種,包括每一種治療方案的效果。這些信息從數據中間挖掘出來的和指南知識結合在一起推送給醫生,幫助他做一個更好的慢性病的管理。

    降壓藥有沒有按時吃,血糖有沒有變化,如果發現血壓特別高,醫生就會督促他進行更好的降壓管理,血糖升高了也降血糖,這些項目以前是靠人干的,500萬人口有100萬進行這樣的隨訪,怎么可能隨訪的過來?所以要招很多護士,包括健康管理機構提供健康管理服務,培訓護士來干這個事,這依然是大量人工的工作。

    所以我們在想,我們能不能利用兩個關鍵技術,一個技術是對話技術,我們不是做一個通用聊天機器人,而是做一個虛擬護士,這個護士能夠按照護士的隨訪的過程,針對什么高血壓、高血脂、高血糖這樣的病人去進行自動的隨訪,去采集他相應的信息,同時的話呢,去生成預警,如果系統發現病人有情況的話。

    第二個技術是QA技術,就是問答技術,中國有很多醫患溝通的網站,不管是春雨還是好大夫,這些網站上面大量的患者在問問題,很多的問題跟飲食、運動、作息、藥物的副作用、藥物之間不良反應有關。其實并不是那么核心的診斷和治療問題,但這些問題也靠人工來回答的,所以我們在用一些 QA 的技術來做更好的患者教育,幫助患者最及時的找到可信賴的信息。

    但是,患者問的問題是五花八門的,什么病名字寫錯的,藥名字寫錯的,各種大爺大媽會有各種口語。你怎么樣做回答?這是非常核心的技術,我們不同層級都用了深度學習的技術,包括用CNN做問題分類,去做問題的相似性匹配,最后可以達到一個比較好的Top1的結果。

    系統會形成一個隨訪的報告,這個隨訪的報告包括采訪采集到的關鍵的體重或者血壓血糖的信息,包括患者用藥的信息,所有的信息都會自動生成一個報告,幫助管理師更好的對患者進行疾病管理。

    同時,系統會利用決策的功能,當發現有風險的時候,會及時通知患者和醫生讓他去醫院就診或者對患者進行及時的干預,避免后面釀成大禍。

    時間關系的話,我今天的分享大概就是這些。最后再講一點,一個模型、算法,給它一堆數據,一跑就能出來一個治療或者診斷的模型。一定要把醫學的知識和靠譜的分析手段結合在一起,很謹慎的選擇數據,選擇人群和選擇你要分析的任務。做這個事,一句話,要心存敬畏,這樣才有可能做出靠譜能用的醫療 AI。我今天的分享就是這樣,謝謝大家!

    發表評論

  • 野花视频