简介:摘要目的基于深度学习对99Tcm-亚甲基二膦酸盐(MDP)全身骨显像图像中骨转移瘤进行智能诊断,并设计肿瘤负荷的定量评估指标。方法回顾性纳入同济大学附属第十人民医院核医学科2018年3月至2019年7月间621例患者(男389例、女232例;年龄12~93岁)的骨显像图像,分为骨转移瘤组和非骨转移瘤组。从2组分别抽取80%作为训练集,余20%作为测试集。利用深度残差卷积神经网络ResNet34构建骨转移瘤诊断分类及分割模型。计算灵敏度、特异性、准确性以评估分类模型性能,分析分类模型在<50岁(15例)、≥50且<70岁(75例)及≥70岁(33例)组的性能差异。利用模型分割骨转移瘤区域,以骰子系数评估分割模型结果与人工标注结果的比对。计算骨显像肿瘤负荷系数(BSTBI)以定量评估骨转移瘤肿瘤负荷。结果骨转移瘤图像280例,非骨转移瘤图像341例;其中,训练集498例,测试集123例。诊断分类模型识别骨转移瘤的灵敏度、特异性及准确性分别为92.59%(50/54)、85.51%(59/69)和88.62%(109/123)。分类模型在<50岁组表现最佳(灵敏度2/2,特异性12/13,准确性14/15),其特异性在≥70岁组中最低(8/12)。分割模型中,骨转移瘤区域骰子系数为0.739,膀胱区域骰子系数为0.925,模型在3个年龄组表现相当。初步结果显示,BSTBI随病灶数目的增多、99Tcm-MDP摄取程度的增高而增大。构建的骨转移瘤智能诊断模型从输入原始数据到最终完成BSTBI计算所需时间为(0.48±0.07) s。结论基于深度学习的骨转移瘤智能诊断模型能较准确地识别骨转移瘤、进行自动区域分割及计算肿瘤负荷,为骨显像图像的解读提供了新方法。研究提出的BSTBI有望成为骨转移瘤肿瘤负荷的定量评估指标。
简介:摘要目的探讨采用深度学习技术提升内镜医师在窄带光成像(narrow band imaging,NBI)下判断结直肠息肉性质准确率的价值。方法收集武汉大学人民医院消化内镜中心结直肠息肉的NBI非放大图片并分为3个数据集,数据集1(2018年1月—2020年10月,1 846张非腺瘤性与2 699张腺瘤性息肉的NBI非放大图片)用来训练和验证结直肠息肉性质鉴别系统;数据集2(2018年1月—2020年10月,210张非腺瘤性息肉和288张腺瘤性息肉的NBI非放大图片)用来比较内镜医师及该系统息肉分型的准确性,同时比较4名消化内镜初学者在该系统的辅助下判断息肉性质的准确性是否有提升;数据集3(2020年11月—2021年1月,141张非腺瘤性息肉和203张腺瘤性息肉的NBI非放大图片)用来前瞻性测试该系统。结果该系统在数据集2中判断结直肠息肉的准确率为90.16%(449/498),优于内镜医师。消化内镜初学者在有该系统的辅助下,息肉分型准确率显著提升。在前瞻性研究中,该系统的准确率为89.53%(308/344)。结论本研究开发的基于深度学习的结直肠息肉性质鉴别系统能够显著提升内镜医师初学者的息肉分型准确率。
简介:摘要目的探讨基于深度学习的快速磁敏感加权成像(SWI)评估急性缺血性卒中(AIS)的价值。方法回顾性分析2019年1月至2021年1月在解放军总医院第一医学中心接受MR检查并行SWI序列扫描且发病24 h内的AIS患者118例,其中男75例、女43例,年龄23~100(66±14)岁。采用MATLAB的randperm函数将118例患者以8∶2的比例分为训练集96例,测试集22例。另外收集MR-STARS研究招募的同一中心的47例AIS患者作为外部验证集,其中男38例、女9例,年龄16~75(58±12)岁。将SWI图像和滤波相位图像合并为复值图像作为全采样参考图像。对全采样参考图像进行回顾性欠采样以模拟实际欠采样过程,获得欠采样SWI图像,欠采样倍数为5倍,可节省80%的扫描时间;然后基于复值卷积神经网络(ComplexNet)的深度学习模型重建快速SWI数据。采用组内相关系数(ICC)或Kappa检验比较全采样SWI和基于ComplexNet的快速SWI的图像质量评分一致性及检出AIS患者磁敏感血栓征(SVS)、微出血、深部髓质静脉(DMVs)不对称的一致性。结果测试集中全采样SWI图像质量的评分为(4.5±0.6)分,基于ComplexNet的快速SWI图像质量评分为(4.6±0.7),两者一致性较好(ICC=0.86,P<0.05);全采样SWI与基于ComplexNet的快速SWI检出AIS患者SVS(Kappa=0.79,P<0.05)、微出血(Kappa=0.86,P<0.05)、DMVs不对称(Kappa=0.82,P<0.05)一致性较好。外部验证集中,全采样SWI图像质量的评分为(4.1±1.0)分,基于ComplexNet的快速SWI图像质量的评分为(4.0±0.9)分,两者一致性较好(ICC=0.97,P<0.05);全采样SWI与基于ComplexNet的快速SWI检出AIS患者SVS(Kappa=0.74,P<0.05)、微出血(Kappa=0.83,P<0.05)和DMVs不对称(Kappa=0.74,P<0.05)的一致性较好。结论深度学习技术可显著加快SWI速度,且基于ComplexNet的快速SWI与全采样SWI的图像质量及检出AIS征象的一致性好,可应用于AIS患者的影像学评估。
简介:摘要目的探究深度学习算法(DLR)在胰腺低剂量CT扫描中改善图像质量的价值。方法前瞻性收集2020年8月至12月在北京协和医院进行腹部胰腺增强检查的68例患者,采用随机区组法分为正常剂量组和低剂量组,各34例,正常剂量组扫描管电压为120 kV,低剂量组管电压为100 kV。所有患者均行平扫、动脉期、实质期、延迟期扫描。低剂量组4期图像分别采用滤波反投影(FBP)、混合模型迭代算法(AIDR)和DLR 3种方法重建图像,正常剂量组4期图像均采用AIDR重建图像,分别记为LD-FBP、LD-AIDR、LD-DLR、RD-AIDR。测量胰腺的CT值、噪声值(SD),计算信噪比(SNR)、对比噪声比(CNR),不同重建方法图像间各参数的比较采用单因素方差分析,两两比较采用LSD法;对每组图像进行主观评分,多组间比较采用Kruskal-Wallis检验。结果正常剂量组和低剂量组患者胰腺平扫、动脉期、实质期、延迟期不同重建方法图像间胰腺CT值、SD、SNR、CNR差异均有统计学意义(P均<0.05)。实质期和延迟期图像LD-FBP、LD-AIDR、LD-DLR图像CT值均高于RD-AIDR图像(P均<0.05);4期图像间SD、SNR两两比较差异均有统计学意义(P均<0.05);4期LD-FBP、LD-DLR与RD-AIDR的CNR差异有统计学意义(P均<0.05),RD-AIDR的CNR优于LD-FBP,LD-DLR优于RD-AIDR。DLR算法对胰腺4期图像的SD、SNR、CNR均有改善,其中对SNR的改善增强图像更为显著,对CNR的改善平扫期和延迟期更为显著。胰腺4期不同算法重建图像主观评分差异均有统计学意义(P均<0.001)。LD-DLR与RD-AIDR评分差异无统计学意义(平扫、动脉期、实质期、延迟期Z值分别为1.00、2.24、0.45、1.34,P值分别为0.317、0.025、0.655、0.180)。结论DLR技术可以在降低胰腺CT辐射剂量的同时改善图像质量,满足诊断需求,在胰腺低剂量增强CT检查中可降低噪声,提高图像的信号SNR和CNR。
简介:摘要磁共振成像是膝关节前交叉韧带损伤的首选无创评估方法,目前对前交叉韧带损伤的诊断主要靠放射科医生的临床经验且耗时耗力。深度学习作为机器学习的一个重要新兴分支,它以神经网络为架构、对数据进行表征学习。近年来,深度学习在膝关节前交叉韧带的应用主要集中在前交叉韧带分割和损伤分类(包括二分类和多分类),对于损伤韧带的分割及基于韧带损伤对相关疾病预测的研究仍处在起步阶段。尽管如此,深度学习既可快速实现前交叉韧带的自动分割,又可对前交叉韧带损伤进行自动分类评估,这将显著提高放射科医生的工作效率。本文就基于MRI深度学习在膝关节前交叉韧带损伤方面的研究予以综述。
简介:摘要目的评价基于深度学习卷积神经网络(convolutional neural networks,CNN)的肺结核CT辅助诊断模型在临床中的应用价值。方法收集2017年3月至2018年3月河北省胸科医院影像科菌阳并接受胸部高分辨率CT平扫检查的1 764例患者的病例资料,其中男937例,女827例,年龄17~73岁,平均年龄38.4岁。由4名影像科医师对含病变的20 139幅CT图像进行分类标注(17种影像特征),以此作为训练数据集,构建肺结核CT图像CNN诊断模型。训练数据集数量最多的前5种影像特征依次为:浸润型肺结核、空洞型肺结核、胸膜增厚、干酪性肺炎和胸腔积液。从已标注图像中随机抽取302幅图像作为测试数据集,以2名高级职称医师的诊断为“金标准”,比较CNN诊断模型和医师在肺结核CT诊断中敏感度和准确率的差异,统计CNN诊断模型分类错误的类型、数量,并绘制自由响应受试者工作特征(FROC)曲线,以测量该模型的最大诊断效能。结果CNN诊断模型对测试数据集中浸润型肺结核、空洞型肺结核、胸膜增厚、干酪性肺炎和胸腔积液的诊断准确率分别为:95.33%(10 982/11 520)、73.68%(2 151/2 920)、73.07%(1 128/1 544)、83.33%(1 020/1 225)和94.11%(814/865);CNN诊断模型的总体诊断敏感度和准确率分别为95.49%(339/355)和90.40%(339/375),医师的对应数值分别为:93.80%(348/371)和92.80%(348/375),CNN模型和医师诊断比较差异无统计学意义(敏感度χ2=1.022,P=0.312;准确率χ2=1.404,P=0.236);FROC曲线显示,当敏感度为78%,假阳性区域个数为2.48时,该模型诊断效能最大。CNN诊断模型诊断结核病变的分类错误主要集中于纤维条索灶、空洞型肺结核、干酪性肺炎与浸润型肺结核的混淆上。结论基于深度学习CNN的肺结核CT辅助诊断模型有较高的诊断敏感度和准确率,该模型可辅助影像科医师的肺结核诊断工作,值得在临床工作中推广应用。
简介:摘要目的探讨采用基于卷积神经网络(CNN)构建的人工智能辅助诊断模型对乳腺肿块四分类进行超声鉴别诊断的应用价值。方法利用CNN构建辅助诊断模型,收集2016年1月至2018年1月首都医科大学附属北京天坛医院的2 098例乳腺肿块患者(其中良性肿瘤1 132例,恶性肿瘤779例,炎症32例,腺病155例)的10 490张超声图像,将其分为训练集和测试集,对人工智能辅助诊断模型进行训练及测试。并将分别使用二维成像(two-dimensional imaging,2D)和二维彩色多普勒成像(two dimensional color Doppler flow imaging,2D-CDFI)的两组数据训练模型进行比较。分析乳腺良性肿瘤、恶性肿瘤、炎症、腺病患者的ROC曲线,计算ROC曲线下面积(AUC)。结果使用2D-CDFI数据训练的模型比使用2D数据训练的模型对良性肿瘤和炎症的训练集和验证集的准确性有显著提高。①对于良性肿瘤的诊断,使用2D图片训练集的敏感性92%,特异性95%,AUC 0.93;使用2D-CDFI图片训练集的敏感性93%,特异性95%,AUC 0.93;使用2D图片测试集的敏感性91%,特异性96%,AUC 0.94;使用2D-CDFI图片测试集的敏感性93%,特异性94%,AUC 0.94。②对于恶性肿瘤的诊断,使用2D图片训练集的敏感性93%,特异性97%,AUC 0.94;使用2D-CDFI图片训练集的敏感性93%,特异性96%,AUC 0.94;使用2D图片测试集的敏感性93%,特异性96%,AUC 0.94;使用2D-CDFI图片测试集的敏感性93%,特异性96%,AUC 0.94。③对于炎症的诊断,使用2D图片训练集的敏感性81%,特异性99%,AUC 0.91;使用2D-CDFI图片训练集的敏感性86%,特异性99%,AUC 0.89;使用2D图片测试集的敏感性100%,特异性98%,AUC 0.98;使用2D-CDFI图片测试集的敏感性100%,特异性99%,AUC 0.96。④对于腺病的诊断,使用2D图片训练集的敏感性88%,特异性97%,AUC 0.94;使用2D-CDFI图片训练集的敏感性93%,特异性98%,AUC 0.94;使用2D图片测试集的敏感性94%,特异性98%,AUC 0.93;使用2D-CDFI图片测试集的敏感性88%,特异性99%,AUC 0.90。即使肿瘤的最大径<1 cm,也不影响准确性。结论基于CNN构建的人工智能深度学习可以对乳腺肿块进行更细致的分类,提高诊断率,对乳腺肿瘤患者的治疗具有较好的指导作用。
简介:摘要目的探讨基于MRI的深度学习(DL)影像组学机器学习模型在术前区分病理低级别和高级别软组织肉瘤(STS)的价值。方法回顾性纳入2007年11月至2019年5月青岛大学附属医院经病理证实的151例STS患者为训练集、山东第一医科大学附属山东省立医院和河北医科大学附属第三医院的131例STS患者为外部验证集。根据法国国家癌症研究中心(FNCLCC)肿瘤分级标准,STS病理分级低级别(FNCLCCⅠ和Ⅱ级)161例,高级别(FNCLCCⅢ级)121例。分别提取病灶的手工影像组学(HCR)特征和DL影像组学特征,分别基于HCR特征、DL特征和两者组合特征,建立决策树、逻辑回归、支持向量机(SVM)3种分类器的机器学习模型,采用受试者操作特征曲线下面积(AUC)评价各机器学习模型预测高级别和低级别STS的效能,确定最优机器学习模型。采用单因素和多因素logistic回归筛选临床和影像学特征,建立临床影像学模型。结合最优机器学习模型和临床影像学模型,建立列线图,采用AUC来评估各模型和列线图的预测性能,AUC间比较采用DeLong检验。采用Kaplan-Meier生存曲线和log-rank检验评价最优机器学习模型在STS患者无进展生存期(PFS)风险分层中的表现。结果基于HCR和DL组合影像组学特征的SVM机器学习模型的AUC最大,在训练集和外部验证集中预测STS分级分别为0.931(95%CI 0.889~0.973)和0.951(95%CI 0.904~0.997),为最优机器学习模型。临床影像学模型在训练集和外部验证集中的AUC分别为0.795(95%CI 0.724~0.867)和0.615(95%CI 0.510~0.720),列线图分别为0.875(95%CI 0.818~0.932)和0.786(95%CI 0.701~0.872)。外部验证集中,最优影像组学机器学习模型预测STS分级的性能优于列线图和临床影像学模型(Z=3.16、6.07,P=0.002、<0.001)。最优影像组学机器学习模型预测的高级别和低级别STS患者的PFS差异有统计学意义(训练集χ²=43.50,P<0.001;外部验证集χ²=70.50,P<0.001)。结论基于MRI的DL影像组学模型可有效预测STS的FNCLCC肿瘤分级,其中HCR和DL组合影像组学特征的SVM分类器模型效能最佳,并有望对患者预后进行风险分层。
简介:摘要目的建立基于人工智能技术的牙菌斑智能判读系统,分析影响其判读结果的相关因素。方法2018年10月至2019年6月用家用口腔内镜(1 280×960像素,东莞立港医疗器材有限公司)拍摄北京大学口腔医学院的25名研究生志愿者[男性12名,女性13名,年龄(23±3)岁]口内牙齿唇颊侧照片,使用菌斑染色剂(Cimedical,日本)进行菌斑染色后,用同样拍摄方法再次拍摄照片,共收集符合纳入标准的549组恒牙牙菌斑染色前后的牙齿照片。将549组图像采用随机数字表法分为440组训练数据集和109组测试数据集。设计并实现基于DeepLab的深度学习模型,采用LabelMe软件(Windows版3.2.1,MIT,美国)进行标注,对标注后的440组训练数据集进行训练,并据此建立恒牙牙菌斑智能判读系统,使用平均交并比(mean intersection over union,MIoU)作为评估该算法识别准确性的量化指标,用建立的恒牙牙菌斑智能判读系统对109组测试照片进行判读。使用Matlab软件(Windows版R2017a,MathWorks,美国)提取109组照片的牙菌斑边缘线,计算菌斑边缘线像素点个数,以此衡量牙菌斑边缘的复杂性,并计算牙菌斑面积百分比。基于多元线性回归分析牙位、牙菌斑面积百分比、牙菌斑边缘线像素点个数、镜头光源光斑是否位于菌斑区域对于恒牙牙菌斑判读准确性的影响,通过方差检验比较模型调整后的决定系数R2选择拟合效果更优的模型。结果恒牙牙菌斑智能判读系统对测试组判读的MIoU值为0.700±0.191。当牙菌斑面积百分比、牙菌斑边缘线像素点个数进入回归模型时,R2值为0.491,高于只有牙菌斑百分比进入模型时的R2,牙菌斑面积百分比、牙菌斑边缘线像素点个数对恒牙牙菌斑判读准确性有显著影响(P<0.05)。牙菌斑边缘线像素点个数的标准化系数为-0.289,菌斑面积百分比的标准化系数为-0.551。结论本研究通过家用口腔内镜采集的恒牙牙面图像构建了恒牙牙菌斑智能判读系统,该系统可以较准确地判断牙菌斑的附着情况;牙菌斑边缘线越复杂,牙菌斑面积百分比越高,菌斑识别的准确性越低。
简介:摘要随着计算机技术的发展,基于深度学习技术建立的计算机辅助诊断模型已逐渐应用于消化内镜领域,可有效辅助内镜医师早期诊断各类消化道疾病。食管鳞状细胞癌是我国最常见的癌症之一,早期诊断及治疗对改善食管鳞癌患者的预后有重要作用。目前,计算机辅助诊断模型已可用于普通白光内镜、窄带成像、放大内镜及细胞内镜系统,且用于识别早期食管鳞癌及癌前病变,判断病变深度的应用效果令人满意,现将有关研究进展进行综述。
简介:摘要目的探讨深度学习重建(DLR)较混合迭代重建(HIR)在降低CT肺动脉成像(CTPA)辐射剂量中的作用及对图像质量的影响。方法前瞻性纳入2020年12月至2021年4月在北京协和医院临床疑诊为急性肺动脉栓塞(APE)或因其他肺动脉疾病需行CTPA检查的患者100例,根据区组随机化分为HIR组、DLR组,每组50例,记录患者的性别、年龄及体质指数(BMI)。HIR组、DLR组噪声指数(SD)分别设置为8.8、15,其他扫描参数及对比剂注射方案相同,分别采用HIR、DLR算法重建。计算有效剂量(ED)及体型特异性扫描剂量(SSDE)。在1~3级肺动脉管腔、双侧椎旁肌勾画感兴趣区(ROI),记录各ROI CT值及标准差值,计算图像的信噪比(SNR)、对比噪声比(CNR)。由2名高年资医师采用盲法,以Likert 5分制对2组图像进行主观评估,评分不一致时由第3名医师综合判定。采用独立样本t检验对比2组患者一般资料、辐射剂量及客观图像质量,采用Mann-Whitney U检验对主观噪声、肺动脉分支显示、诊断信心进行组间比较,计算线性加权Kappa系数分析2名医师评分的一致性。结果HIR组、DLR组患者性别、年龄、BMI差异无统计学意义(P>0.05)。HIR组与DLR组图像1~3级肺动脉及椎旁肌CT值差异无统计学意义(P>0.05)。DLR组平均ED为1.3 mSv,SSDE中位数为4.20 mGy,均较HIR组降低约35%,但DLR组CTPA图像的SNR(30±5)、CNR(26±5)均高于HIR组(分别为23±5、20±5,t值分别为-6.60、-5.90,P<0.001)。DLR组主观图像噪声得分明显高于HIR组(Z=-7.34,P<0.001),且2名医师一致性高(Kappa=0.847,95%CI 0.553~1.000);DLR组与HIR组图像在肺动脉分支显示以及医师诊断信心得分上差异无统计学意义(Z分别为-0.259、-0.296,P>0.05)。结论DLR能够进一步降低CTPA检查辐射剂量,提高图像质量且不影响医师诊断信心,值得在临床推广。
简介:摘要目的探讨深度学习重建(DLR)在儿童低剂量脑外伤CT扫描中的应用价值。方法回顾性分析2020年6月至2021年2月湖南省儿童医院51例脑外伤合并脑出血患儿的低剂量颅脑CT图像,分别重建成5 mm和1.25 mm两组图像,每组图像根据不同算法重建6个亚组图像,分别为3组多模型自适应性迭代重建(ASIR-V)(迭代权重为0、50%、100%)和3组DLR[重建级别为低(L)、中(M)、高(H)]图像。图像质量客观评价参数包括背侧丘脑(灰质)、额叶白质、出血灶的CT值、信噪比(SNR)和灰白质、出血灶对比噪声比(CNR),以及背景噪声(SD)、颅底伪影SD。主观评价为对图像质量采用5分法进行评分。采用随机区组方差分析和Friedman秩和检验比较DLR与ASIR-V图像的客观参数和主观图像质量评分的差异。采用配对样本t检验和相关样本秩和检验对1.25 mm层厚DLR-H与5 mm层厚ASIR-V50%图像的客观参数和主观评分进行比较。结果51例患儿颅脑CT的CT容积剂量指数、剂量长度乘积和体型特异性剂量估算值分别为17.7(11.9,21.1)mGy、248.4(142.2,338.1)mGy·cm和(15.7±2.8)mGy。同一层厚的DLR与ASIR-V之间的CT值差异有统计学意义(P<0.05)。SNR和CNR随着ASIR-V或DLR的级别升高而逐渐增高,SD随着ASIR-V或DLR的级别升高而逐渐降低,总体差异均有统计学意义(P均<0.05)。其中,DLR客观参数均优于ASIR-V50%,DLR-H和ASIR-V100%的图像背景SD最低且两者差异无统计学意义,薄层DLR-H的白质SNR、灰质SNR和灰白质CNR值均优于ASIR-V100%,差异有统计学意义。随着层厚降低,图像质量评分下降,但薄层DLR图像平均主观评分均>3分,而ASIR-V图像平均主观评分均<3分,不能满足诊断需求。1.25 mm层厚DLR-H图像的背景和伪影噪声SD均高于5 mm层厚ASIR-V50%图像(t=2.96、2.83,P=0.005、0.007),其余客观参数和主观评分差异均无统计学意义(P均>0.05)。结论在儿童脑外伤低剂量颅脑CT中,DLR能提高图像质量,其中DLR-H图像质量最佳,且可提高薄层图像的灰白质的SNR和CNR。
简介:摘要目的探讨应用深度学习图像重建(DLIR)算法对实验猪心肌动态CT灌注(CTP)图像质量的提升程度以及该算法对心肌血流量(MBF)计算的影响。方法麻醉状态下对5只家猪进行静息与负荷动态CTP扫描,扫描管电压均为100 kV,低剂量与高剂量管电流分别设置为150、300 mA。低剂量扫描数据图像重建采用传统滤波反投影(FBP)及DLIR 3种不同强度(低、中、高),高剂量扫描数据图像重建仅采用FBP。客观评价及主观评价(5分制)图像质量,客观评价包括图像噪声、信噪比(SNR)、对比噪声比(CNR)。采用线性回归对DLIR算法强度和图像质量的线性趋势进行检验。采用Shapiro-Wilk检验数据正态性,正态数据比较采用配对t检验,非正态数据比较采用Wilcoxon秩和检验。结果高剂量扫描方案与低剂量扫描方案平均有效辐射剂量分别为7.2、3.8 mSv,差异有统计学意义(t=282.50,P<0.001)。低剂量下获得的图像随着DLIR强度的升高图像噪声逐渐减低,图像SNR及CNR逐渐增高(F=60.10、35.87、41.41,P均<0.001)。低剂量下高强度DLIR图像与高剂量FBP图像的噪声分别为(31.7±3.1)、(38.2±1.2)HU,SNR分别为16.6±2.0、13.8±0.8,CNR分别为14.5±1.7、11.6±0.9,差异均有统计学意义(t值分别为5.70、4.15、5.68,P值均<0.05)。低剂量下高强度DLIR图像与高剂量FBP图像主观评分分别为(4.8±0.4)、(4.2±0.6)分,差异有统计学意义(Z=2.12,P<0.05)。低剂量下FBP图像与高强度DLIR图像计算MBF在静息状态下分别为(81.3±17.3)、(79.9±18.3)ml·100 ml-1·min-1,负荷状态下分别为(99.4±24.9)、(100.7±27.3)ml·100 ml-1·min-1,差异均无统计学意义(t值分别为1.10、0.89,P>0.05)。结论应用高强度DLIR算法有利于实现实验猪低剂量心肌动态CTP,可明显提升图像质量,同时对MBF计算无明显影响。
简介:摘要目的针对CBCT图像中肿瘤与周围组织对比度低的缺点,研究一种适合于CBCT图像中中心型肺癌的自动分割方法。方法收集221例中心型肺癌患者,其中176例行CT定位,45例行强化CT定位。将强化CT图像分别设置为肺窗和纵隔窗,并与首次CBCT验证图像进行弹性配准获得配对数据集;然后将配对数据集传入cycleGAN网络进行风格迁移,使得CBCT图像可分别转化为肺窗和纵隔窗下的"强化CT";最后经风格迁移后的图像被载入UNET-attention网络对大体肿瘤体积进行深度学习。通过戴斯相似性系数(DSC)、豪斯多夫距离(HD)和受试者工作特征曲线下面积(AUC)对分割结果进行评价。结果经风格迁移后肿瘤与周围组织对比度明显增强,采用cycleGAN+UNET-attention网络的DSC值为0.78±0.05,HD值为9.22±3.42,AUC值为0.864。结论采用cycleGAN+UNET-attention网络可有效对CBCT图像中中心型肺癌进行自动分割。
简介:摘要目的喉返神经(recurrent laryngeal nerve,RLN)是腔镜甲状腺手术中需重点识别和保护的结构。本研究旨在探索深度学习技术识别RLN在经腋窝入路腔镜甲状腺手术中的应用价值。方法收集2020年7月1日至2021年5月1日在北京协和医院基本外科操作的,留存了完整视频资料的经腋窝入路腔镜甲状腺手术录像。两位资深甲状腺外科医师选取其中包含RLN的视频片段,经过训练的标注人员对RLN的轮廓进行描绘标注,并经两位甲状腺外科医师审校确认。视频资料用随机数方法按照5∶1的比例分为训练集及测试集,并根据RLN与周围组织的辨识度分为高、中、低辨识度。采用基于PSPNet的语义分割模型进行训练,使用ResNet50作为主干网络提取特征,同时结合金字塔池化模型融合多尺度特征,最终根据交并比(insertion over union, IOU)评判深度学习神经网络对RLN具体位置预测的能力。所有资料使用R 4.0.2版本分析。结果共38个视频中累计35 501帧图像纳入本研究,其中32个视频共29 704帧图像作为训练集,6个视频共5 797帧图像作为测试集。当IOU阈值设为0.1时,模型在高、中、低辨识度组中的灵敏度和精确率分别达到了100.0%/92.1%、95.8%/80.2%及81.0%/80.6%。而当IOU阈值提高到0.5时(代表有效定位RLN),灵敏度和精确率则分别为92.6%/85.3%、71.7%/60.5%及38.1%/37.9%。这说明本模型在辨识度中高时可很好地提示RLN的位置和走行。漏检通常因目标过小、边界不明确所致。结论基于深度学习的人工智能RLN识别在腔镜甲状腺手术视频中是可行的,有潜在的应用价值,有可能帮助外科医生降低手术中误损伤风险,提高手术安全性。
简介:摘要目的:采用深度学习模型对彩色眼底图像中的玻璃膜疣进行自动判读,并进一步探讨屈光不正与玻璃膜疣的相关关系。方法:病例对照研究。选取2017年1─12月在宁波市医疗中心李惠利医院行健康体检且年龄大于50岁的参与者,共1 035例(2 055眼)的彩色眼底图像,使用DeepSeeNet深度学习模型对彩色眼底图像进行自动分析判读,按玻璃膜疣大小进行分组。同时随机选择392张(19.1%)彩色眼底图像采用人工阅片方法对玻璃膜疣大小进行判读,采用Cohen's Kappa检验比较2种判读方法的一致性。根据电脑验光数据计算等效球镜度(SE),并分为中重度远视(>+3.0 D)、轻度远视(+0.51~+3.0 D)、正视(-0.5~+0.5 D)、轻度近视(-3.0~-0.51 D)、中重度近视(<-3.0 D)。应用Logistic回归模型进行屈光不正与玻璃膜疣的相关性分析。结果:深度学习模型对玻璃膜疣大小判读与人工阅片结果具有高度一致性(κ=0.67,P<0.001)。在矫正性别、年龄等因素后,SE向正方向增加与大玻璃膜疣发生风险相关(OR=1.03,95%CI:1.01~1.04,P<0.001)。中高度近视为玻璃膜疣的保护因素,与正视者相比,中重度近视者发生大玻璃膜疣的风险为0.89(95%CI:0.82~0.97);相反,中高度远视为危险因素,与正视者相比其发生大玻璃膜疣的风险为1.20(95%CI:1.03~1.39)。结论:屈光不正与玻璃膜疣的发生相关。深度学习作为一种新型技术,除了可以增强医师临床诊断的速度和精准性,同样可以为年龄相关性黄斑变性相关的科研提供线索。