南昌大学江西医学院第二附属医院消化内科成果(中科院1区、IF=15.1分)|资源受限环境下基础模型引导的多视图半监督CT肝脏肿瘤分割
今天分享一篇来自南昌大学江西医学院第二附属医院消化内科、2025年11月发表于《NPJ Digit Med》(中科院1区、IF=15.1分)的研究。研究针对医学影像分割中标注数据稀缺、计算资源有限等现实挑战,提出了一种创新的解决方案。该研究通过结合预训练基础模型与轻量级任务专用模型,构建了一个多视图协作学习框架,实现了在极少量标注数据下高效、精准的肝脏肿瘤CT自动分割。该方法不仅显著提升了分割精度与一致性,还大幅降低了计算成本与人工干预需求,为资源受限的临床环境提供了可行的智能化工具,具有重要的临床转化潜力。论文题目:Foundation model-guided multi-view semi-supervised CT segmentation of liver tumors in resource-constrained settings一、背景与引入
❓问题:肝脏肿瘤的精准分割对于诊断、手术规划和疗效评估至关重要,但传统手动分割效率低下、结果不一致,且高度依赖专家经验。现有深度学习方法(如3D U-Net)虽能提升自动化程度,但仍需大量标注数据,而医学影像标注成本高昂、获取困难。此外,肝脏肿瘤形态多变、边界模糊,尤其在非增强CT中分割难度大。尽管以SAM为代表的基础模型在通用分割任务中表现优异,但其多为2D架构,缺乏对3D体积信息的捕捉,且依赖人工提示,无法实现全自动分割。
✅解决:本研究提出一种“基础模型引导的多视图半监督CT分割框架”,旨在在标注数据极少的情况下实现全自动、高精度的肝脏与肿瘤分割。该框架将预训练的3D医学基础模型(如SAM-Med3D)与轻量化的任务专用模型相结合,通过多视图协作学习机制,有效利用未标注数据,提升模型泛化能力与分割一致性。
✅思路:1️⃣采用半监督学习范式,结合少量标注数据与大量未标注数据进行训练。2️⃣利用基础模型生成高质量伪标签,作为监督信号引导任务模型的优化。3️⃣引入多视图(轴向、冠状、矢状面)协同推理机制,融合不同视角信息,提升3D分割的连贯性与边界准确性。4️⃣在推理阶段仅使用轻量级任务模型,避免调用计算密集型基础模型,实现高效部署。
二、思路实现
✅基础模型引导的伪标签生成:使用预训练的3D医学分割基础模型(SAM-Med3D),基于任务模型生成的粗分割结果自动生成提示(如边界框),进而产生高质量伪标签,作为未标注数据的监督信号。
✅多视图协作学习机制:分别从轴向、冠状、矢状三个视图对同一CT体积进行独立推理,生成各视图的分割结果,再通过融合策略(如投票或加权平均)整合为统一的分割掩码,有效抑制单视角噪声,提升体积一致性。
✅半监督训练框架:采用Mean Teacher结构,包含学生模型(可训练)和教师模型(权重的指数移动平均),通过一致性损失函数使两者预测保持一致,并结合基础模型提供的伪标签进行正则化,增强模型对未标注数据的学习能力。
✅轻量化部署设计:训练完成后,仅保留轻量化的3D U-Net作为推理模型,无需调用基础模型或人工提示,显著降低计算开销与延迟,适合在资源受限的临床环境中实时运行。
三、结果解读
✅在标注数据极少的情况下仍保持高精度:仅使用1例标注数据时,所提方法的Dice系数达到71.63%,显著高于传统半监督方法Mean Teacher的52.56%。随着标注数据增至20例,肝脏与肿瘤的Dice分别达到90.13%与68.79%,优于所有对比方法。
✅多视图融合显著提升分割一致性:消融实验表明,融合多视图信息的分割结果在体积连续性和边界准确性上均优于单一视图模型,尤其在肿瘤边界模糊或形态不规则的情况下表现更为稳健。
✅计算效率高,适合临床部署:推理阶段仅需运行轻量级任务模型,参数规模与标准3D U-Net相当,无需高配置GPU即可实现秒级分割,适合集成至现有临床工作站或移动诊断设备。
✅视觉与定量结果一致:可视化结果显示,所提方法的分割结果与真实标注高度吻合,尤其在细小肿瘤和复杂边界的处理上表现优异,3D重建体积平滑且解剖结构合理,符合手术规划与定量评估的临床需求。
图1:所提框架概述
图2:不同标注数据量下各分割模型的性能对比
图3:代表性案例的分割结果可视化对比
图4:3D重建结果与真实标注的视觉对比
图5:所用3D分割基础模型SAM-Med3D的网络架构
图6:骨干半监督分割框架Mean Teacher的结构示意图