吴恩达团队发起骨骼X光片识别挑战赛,好胆你就来


翻译 | 张建军

出品 | 人工智能头条(公众号ID:AI_Thinker)


【人工智能头条导读】今年 1 月,斯坦福吴恩达团队开源了 MURA ,这是一个骨骼 X 光片的大型数据集,总共有 40561 份多视图放射线影像。近日,吴恩达团队在这个数据集的基础上发起了一项深度学习挑战赛,想挑战的同学来试试自己的水平吧。


报名地址:

https://stanfordmlgroup.github.io/competitions/mura/



什么是 MURA?


MURA(MUsculoskeletal Radiographs,肌骨骼放射影像)是骨骼 X 光片的大型数据集。算法的任务是判断一张 X 光片是正常还是异常。


肌骨骼(Musculoskeletal)疾病在全世界范围内影响了超过 17 亿的人口,它是长期疼痛和残疾等情况最常见的病因,每年因此被送往急诊室的人数达到了 3000 万,且这个数字还在不断攀升。世界上有很多地方并没有专业的放射科医生可以对该疾病进行诊断,我们希望这个数据集可以给医疗图像技术带来显著提高,使学习模型对医疗图像的判断能达到专家诊断的水平,从而提高医疗保健水平。


MURA 是最大的公共放射线影像数据集之一。我们把该数据集开放给社区并举办借此比赛,希望参赛者的模型可以达到和放射科医生一样的水平。


怎样参加比赛?


MURA 包含一个隐藏的测试数据集用于官方评估模型的性能。参赛队伍需要把他们的可执行代码提交到 Codalab,代码会在一个非公开的测试集上运行。这样的流程保证了测试结果的公平性。你的模型经过官方评估后,测试分数就会出现在排行榜上。


官方指南地址:

https://worksheets.codalab.org/worksheets/0x42dda565716a4ee08d61f0a23656d8c0/


我们怎样收集 MURA 数据?


MURA 数据集包含了对 12173 个病人的 14863 份研究数据,总共有 40561 份多视图放射线影像。每一份影像都属于 7 种标准上肢放射学研究类型之一,其中包括:手肘、手指、前臂、手、肱骨、肩膀和手腕。每一份研究都由斯坦福医学院认证的放射科医生手动标记为正常或异常,这些标注都是在 2001 年到 2012 年间医生根据放射诊断学对临床医学影像进行解释和诊断而完成的。


测试数据集的收集


为了评估模型以及获得放射科医生的可靠估计,6 名经认证的斯坦福放射科医生对额外的 207 份肌骨骼研究数据进行了标注,这些标注数据将作为我们的测试数据集。每位医生在使用了 PACS 系统的临床阅览室环境中,单独地对每份研究进行了检验和标记,并将其标记为 DICOM 文件。这些放射科医生的从业年限在 2 到 25 年之间,平均从业经验为 8.32 年。我们随机选择 3 个放射科医生构建“黄金准则”,即大多数医生投票的标签作为该影像的最终标签。


基线模型是什么?


我们的基线(baseline)是一个 169 层的卷积神经网络,用于检测和定位影像中的异常部位。模型取上肢影像中的一个或多个视图作为输入。该网络对每个视图的异常概率进行预测。我们计算每张视图的异常概率的算术平均数作为该影像的总体异常概率。当该影像的异常概率超过 0.5 时,模型将其预测为异常。


网络使用密集连接卷积神经网络(Dense Convolutional Network)架构,其中每个层和其它所有层都是前馈连接,从而使深度网络更容易优化。我们将最后的全连接层替换为只有单个输出的 sigmoid 非线性单元。同时我们使用类别激活图(Class Activation Map)来可视化放射线照片中对模型异常预测的结果贡献最大的部分。



基线模型表现如何?


我们用 Cohen Kappa 统计量来评估我们的基线模型的性能,它可以衡量模型和“黄金准则”的匹配程度。基线模型在手指影像的研究中异常检测的效果可以与放射科医生的水平比肩,而在手腕影像的研究中则和医生的判断几无二致。然而,基线模型在手肘、前臂、手、肱骨、肩膀的异常检测中的性能要稍微低于最好的放射科医生,表明该任务在未来的研究中依然具有相当的挑战性。



作者:Stanford ML Group

原文链接:

https://stanfordmlgroup.github.io/competitions/mura/




计算机视觉专题来啦!

☟ 学习资源+路径+课程 


猜你喜欢

转载自blog.csdn.net/guleileo/article/details/80476813