1、AI成像工作流在醫(yī)學(xué)影像中的優(yōu)勢
傳統(tǒng)成像工作流程:胸部X光和CT廣泛用于COVID-19 的篩查和診斷。在COVID-19大流行期間,采用非接觸式自動圖像采集工作流程以避免感染的嚴重風(fēng)險非常重要。然而,傳統(tǒng)的成像工作流程包括技術(shù)人員和患者之間不可避免的接觸。特別地,在患者定位中,技術(shù)人員先根據(jù)給定的方案幫助患者擺姿勢,隨后在視覺上識別患者身上的目標(biāo)身體部位位置,并手動調(diào)整患者和X射線管之間的相對位置和姿勢。這一過程使技術(shù)人員與患者密切接觸,導(dǎo)致病毒暴露的G風(fēng)險。因此,需要非接觸式和自動化的成像工作流程來小化接觸。
人工智能成像工作流程:許多現(xiàn)代的X光和CT系統(tǒng)都配備了用于病人監(jiān)護的攝像機。在COVID-19爆發(fā)期間,這些設(shè)備促進了非接觸掃描工作流程的實施。技術(shù)人員可以通過攝像機的實時視頻流從控制室監(jiān)控病人。在這種情況下,人工智能能夠通過從視覺傳感器獲取的數(shù)據(jù)中識別患者的姿勢和形狀來自動執(zhí)行操作,以確定佳掃描參數(shù)。這樣的自動化工作流程可以顯著提G掃描效率并減少不必要的輻射暴露。一個顯著的例子是基于由可視人工智能技術(shù)支持的移動CT平臺自動掃描工作流,如圖1(a)所示。移動平臺完全d立,帶有基于人工智能的預(yù)掃描和診斷系統(tǒng)。它被重新設(shè)計成一個完全隔離的掃描室和控制室,以避免技術(shù)人員和患者之間不必要的互動。進入掃描室后,通過視覺和聽覺提示,指示患者在病床上擺好姿勢(圖1(b))。技術(shù)人員可以通過窗戶觀察,也可以通過掃描室內(nèi)安裝在天花板上的人工智能攝像機傳輸?shù)膶崟r視頻,并在必要時校正病人的姿勢(圖1(c))。患者定位算法將從用照相機[1]捕獲的圖像中自動恢復(fù)患者的3D姿態(tài)和完全重建的網(wǎng)格。基于3D網(wǎng)格,患者目標(biāo)身體部分的掃描范圍和3D中心線都被估計并轉(zhuǎn)換成控制信號和優(yōu)化的掃描參數(shù),以供技術(shù)人員驗證。一旦核實,病床將自動對準ISO中心,并移入掃描架進行掃描。采集到CT圖像后,將對其進行處理和分析,以便進行篩查和診斷。2、AI圖像增強在COVID-19中的具體應(yīng)用
AI圖像處理在COVID-19治療中具體作用在于:針對提供的圖像材料(形式可以是CT,X光),利用機器學(xué)習(xí)算法對圖像進行處理,給出1.劃分出肺部區(qū)域和損傷區(qū)域;2.診斷是否為新G肺炎患者;3.提供有助于醫(yī)護人員作治療方案決策的量化參數(shù)。

2.1 區(qū)域劃分
此環(huán)節(jié)的作用在于,對疑似患者肺部區(qū)域拍攝而得到的圖像進行預(yù)處理,以提供后續(xù)操作。實施層面,此環(huán)節(jié)包含兩部分工作:肺部區(qū)域劃分和損傷區(qū)域。表1是一些圖像劃分在COVID-19應(yīng)用中的研究匯總。

表1 圖像劃分在COVID-19中的應(yīng)用
以肺區(qū)域為導(dǎo)向的方法旨在將肺區(qū)域,即整個肺和肺葉,與CT或X射線中的其他(背景)區(qū)域分開,這被認為是一個必要的步驟,在COVID-19的篩查中[3-10]。例如,Jin等人[2]提出了一種用于CT圖像中COVID-19篩查的兩J管道,其中整個肺區(qū)域先由一個基于UNet++的分割網(wǎng)絡(luò)有效分割出來。
以面向肺損傷的方法旨在將肺中的病變(或金屬和運動偽影)從肺區(qū)分離出來。因為病變或結(jié)節(jié)可能很小,有多種形狀和紋理,定位病變或結(jié)節(jié)的區(qū)域是必需的,通常被認為是一項具有挑戰(zhàn)性的檢測任務(wù)。值得注意的是,除了分割外,在篩選中,注意機制也被認為是有效的定位方法。
2.2 COVID-19的診斷
對COVID-19的診斷本質(zhì)上是一個分類問題,通常的分類結(jié)果有三:非肺炎,非新G肺炎和新G肺炎。表2是一些COVID-19的分類研究。
納林等人[11]提出了三種不同的深度學(xué)習(xí)模型,即ResNet50、InceptionV3和Inception-ResNetV2,以檢測X射線圖像中的COVID-19感染情況。值得注意的是,在本研究中,ID-19數(shù)據(jù)集[12]和Kaggle的胸部X射線圖像(肺炎)也被用來形成數(shù)據(jù)集。50例COVID-19患者的胸部X線圖像和50例正常胸部X線圖像。評價結(jié)果表明,ResNet50模型具有G的分類性能,準確率為98.0%,而InceptionV3的準確率為97.0%,Inception-ResNetV2的準確率為87%。
2.3 量化參數(shù)
由于目前的大部分工作集中在COVID-19的預(yù)診斷上,我們注意到研究COVID-19的后續(xù)工作仍然非常有限。只有很少的嘗試,據(jù)我們所知。例如,上海聯(lián)合成像智能(UII)的研究人員試圖使用基于機器學(xué)習(xí)的方法和可視化技術(shù)來演示變化患者感染區(qū)域的體積大小、密度等臨床相關(guān)因素。之后,將自動生成臨床報告,以將這些變化作為數(shù)據(jù)反映出來由臨床專家驅(qū)動的指導(dǎo),以確定以下程序,見圖2。
3、問題和展望
數(shù)據(jù)收集是COVID-19應(yīng)用程序開發(fā)機器學(xué)習(xí)方法的步。盡管有大量的公共CT或X射線數(shù)據(jù)集用于肺部疾病,但X射線和CT掃描對COVID-19的應(yīng)用目前都還不廣泛,這阻礙了人工智能方法的研究和發(fā)展。Cohen等人從網(wǎng)站和出版物收集醫(yī)學(xué)圖像來創(chuàng)建COVID-19圖像數(shù)據(jù)收集,它目前包含123個正面視圖X射線。COVID-CT數(shù)據(jù)集是從700多份關(guān)于COVID-19的medRxiv和bioRxiv的預(yù)印文獻中收集來的,包括288張確診COVID-19患者的CT切片和10例確診COVID-19病例的三維CT圖像。此外,COVID-19CT分割數(shù)據(jù)集還包含來自60例患者的100個軸向CT切片,以JPG圖像的方式展示。可見目前限制AI于COVID-19上應(yīng)用的主要問題是缺乏大量、完整、可靠的數(shù)據(jù)集。
展望未來,預(yù)計將有更多的人工智能應(yīng)用程序被納入圖像采集工作流程,以提G掃描質(zhì)量、減少病人的被輻射量。例如,需要更準確的基于人工智能的自動化ISO中心和掃描范圍確定,以確保佳的圖像質(zhì)量。此外,X射線曝光參數(shù)可以通過人工智能來推斷患者的身體區(qū)域厚度,自動計算和優(yōu)化的,確保在掃描過程中使用正確的輻射量,這對于低劑量成像特別重要。
| 資料獲取 | |
智能導(dǎo)診機器人在醫(yī)院服務(wù) |
|
| 新聞資訊 | |
| == 資訊 == | |
| » 機器人位姿傳感器:6個電渦流傳感器組成的 | |
| » 裝配機器人的系統(tǒng)組成:主體、驅(qū)動系統(tǒng)和控 | |
| » 焊接機器人的傳感器系統(tǒng),測出焊口的位置和 | |
| » 點焊機器人的規(guī)格:持重100kg,最高速 | |
| » 機器人軌跡規(guī)劃的基本原理 | |
| » 機器人操作臂動力學(xué)方程系數(shù)的簡化 | |
| » 觸覺傳感器行業(yè)首次覆蓋:無觸不成手,觸覺 | |
| » 2025人形機器人產(chǎn)業(yè)鏈市場洞察及方案介 | |
| » 把 AI 放到指數(shù)位—2025新思維 | |
| » 機器人如何鎖定目標(biāo)說話人:聲紋識別,空間 | |
| » 機器人語音交互的智能打斷的方式:發(fā)聲即打 | |
| » 多輪對話的基本原理:采用 RTC 技術(shù)低 | |
| » 老年人陪伴機器人關(guān)注的重點:表達能力 > | |
| » WebSocket在實時對話中存在關(guān)鍵缺 | |
| » 機器人互動如何做好上下文:短期記憶,固化 | |
| == 機器人推薦 == | |
服務(wù)機器人(迎賓、講解、導(dǎo)診...) |
|
智能消毒機器人 |
|
機器人底盤 |
![]() |