摘要:卷积神经网络(CNN)在医学图像分析领域得到了广泛应用, 但受其固定感受野的局限性, 传统的CNN模型难以建立图像中的长距离依赖关系. Transformer通过自注意力机制能够建立图像全局视角下的信息依赖, 拥有更强的序列建模能力. 然而, Transformer难以捕获图像的局部细节特征. 为了解决上述问题, 提出一种基于CNN与Transformer的混合模型DC-TransNet, 用于医学图像分割. DC-TransNet采用双解码器结构建立图像局部和长距离依赖, 捕获局部和全局特征. 考虑到基于编码器-解码器结构的网络模型在不同深度提取到的特征图的大小不一致, 设计了两种特征感知注意力机制CFP和SFP, 合理分配局部和全局特征的权重. 在多个医学数据集上进行了实验, 结果表明DC-TransNet在2D医学图像单类别分割任务中取得了有竞争力的结果, mIoU与mDice等系数均得到显著提升.