切换到宽版
  • 13阅读
  • 2回复

[数码讨论]研究:AI 医疗诊断平均准确率 52.1%,与非专家医生相当[1P] [复制链接]

上一主题 下一主题
在线jjybzxw

UID: 551814

 

发帖
145480
金币
96267
道行
1988
原创
2393
奖券
2610
斑龄
33
道券
936
获奖
0
座驾
设备
摄影级
在线时间: 33899(小时)
注册时间: 2008-10-01
最后登录: 2025-04-22
只看楼主 倒序阅读 使用道具 楼主  发表于: 4小时前

IT之家 4 月 21 日消息,大阪都会大学医学研究生院 Hirotaka Takita 博士和 Daiju Ueda 副教授领导的研究小组近期发布一项系统性回顾和荟萃分析,深入评估了生成式人工智能(AI)在诊断医疗状况方面的表现,并将其与医生进行了对比。

研究团队筛选了总计 18371 项研究,最终确定 83 项进行详细分析。这些研究涉及多种生成式 AI 模型,包括 GPT-4、Llama3 70B、Gemini 1.5 Pro 和 Claude 3 Sonnet 等,覆盖了多个医疗领域。其中,GPT-4 是研究最多的模型。结果显示,这些 AI 模型的平均诊断准确率为 52.1%(95% 置信区间:47.0% - 57.1%)。部分模型的诊断准确率与非专家医生相当,两者之间没有显著统计差异(准确率差异:0.6% [95% 置信区间:-14.5% 至 15.7%],p=0.93)。然而,专家医生的表现仍优于 AI,其准确率差距为 15.8%(95% 置信区间:4.4% - 27.1%,p=0.007)。尽管如此,随着技术的不断进步,这一差距可能会逐渐缩小。

研究还发现,AI 在大多数医学专科的表现较为一致,但有两个例外:皮肤科和泌尿科。在皮肤科,AI 的表现更为出色,这可能是因为该领域涉及模式识别,而这是 AI 的强项。但皮肤科同样需要复杂的推理和针对患者的决策,因此 AI 的优势并不能完全反映其在该领域的实际应用价值。对于泌尿科,研究结果仅基于一项大型研究,因此其结论的普适性受到一定限制。

“这项研究表明,生成式 AI 的诊断能力与非专家医生相当。它可以用于医学教育,支持非专家医生,并在医疗资源有限的地区协助诊断。”Hirotaka Takita 博士表示,“未来的研究需要在更复杂的临床场景中进行评估,使用实际病历进行性能评估,提高 AI 决策的透明度,并在不同患者群体中进行验证,以进一步证实 AI 的能力。”

IT之家注意到,除了诊断领域,该研究还强调了生成式 AI 在医学教育中的潜力。研究人员指出:“当前生成式 AI 模型在非专家环境下的表现与医生相当,这为将 AI 整合到医学培训中提供了机会。” AI 可以用于模拟真实病例,帮助医学生和受训者学习和评估他们的技能。

然而,研究也对这些模型的透明度和偏见提出了担忧。许多 AI 系统并未公开其训练数据的详细信息,这引发了关于其结果是否适用于所有人群的疑问。研究人员强调,“透明度确保了对模型知识、背景和局限性的理解”,并强调需要开发清晰、符合伦理且经过充分验证的 AI 应用。

目前,尽管生成式 AI 具有巨大潜力,但在涉及详细患者信息的复杂病例中仍面临挑战。医生们是否需要担心失去工作?目前尚难定论,但在诊断领域,这种情况是有可能发生的。

山庄提示: 道行不够,道券不够?---☆点此充值☆
 
在线jjybzxw

UID: 551814


发帖
145480
金币
96267
道行
1988
原创
2393
奖券
2610
斑龄
33
道券
936
获奖
0
座驾
设备
摄影级
在线时间: 33899(小时)
注册时间: 2008-10-01
最后登录: 2025-04-22
只看该作者 沙发  发表于: 4小时前
  根据您提供的信息,大阪都会大学医学研究生院的研究小组对生成式人工智能(AI)在医疗诊断领域的表现进行了系统性回顾和荟萃分析。这项研究筛选了大量研究并进行了详细分析,涵盖了多种AI模型,并将其表现与医生进行了对比。

  研究结果显示,这些AI模型的平均诊断准确率为52.1%,部分模型的诊断准确率与非专家医生相当,没有显著统计差异。然而,专家医生的表现仍然优于AI,准确率差距为15.8%。这表明,在目前的技术水平下,生成式AI的诊断能力与非专家医生相当,但在某些领域如皮肤科表现出色,可能是因为该领域涉及模式识别,这是AI的强项。

  研究还指出,生成式AI在医学教育中有潜力,可以用于模拟真实病例,帮助医学生和受训者学习和评估他们的技能。然而,研究也对AI模型的透明度和偏见提出了担忧,强调需要开发清晰、符合伦理且经过充分验证的AI应用。

  总的来说,尽管生成式AI在医疗诊断领域具有潜力,但在涉及详细患者信息的复杂病例中仍面临挑战。目前,医生们尚不需要担心失去工作,但在诊断领域,这种情况是有可能发生的。随着技术的不断进步,AI与医生之间的差距可能会逐渐缩小。未来的研究需要在更复杂的临床场景中进行评估,并提高AI决策的透明度。

如何不发帖就快速得到金币道行
 
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
129377
金币
127402
道行
20023
原创
757
奖券
68
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 13961(小时)
注册时间: 2012-06-21
最后登录: 2025-04-22
只看该作者 板凳  发表于: 3小时前
AI医疗诊断准确率与非专家医生相当
根据最近的研究,生成式人工智能(AI)在医疗诊断领域的表现已经达到了与非专家医生相当的水平。以下是关于这项研究的详细信息:

研究概述
大阪都会大学医学研究生院的Hirotaka Takita博士和Daiju Ueda副教授领导的研究小组进行了一项系统性回顾和荟萃分析,评估了生成式AI在诊断医疗状况方面的表现,并将其与医生进行了对比。研究涉及多种生成式AI模型,包括GPT-4、Llama370B、Gemini1.5Pro和Claude3Sonnet等,覆盖了多个医疗领域。

研究方法
研究团队从18371项相关研究中筛选出83项进行详细分析。这些研究涵盖了多种前沿的生成式AI模型,其中GPT-4成为研究的焦点。

研究结果
结果显示,这些生成式AI模型的平均诊断准确率为52.1%(95%置信区间:47.0%-57.1%)。部分AI模型的诊断准确率已与非专家医生(初级医生)相当,两者之间没有显著统计差异(准确率差异:0.6%[95%置信区间:-14.5%至15.7%],p=0.93)。然而,专家医生在诊断能力上仍然显著优于AI,其准确率差距为15.8%(95%置信区间:4.4%-27.1%,p=0.007)。

AI在不同医学专科的表现
研究还发现,AI在大多数医学专科的表现较为一致,但在皮肤科和泌尿科领域,AI的诊断能力尤为突出。在皮肤科,AI的表现更为出色,这可能是因为该领域涉及模式识别,而这是AI的强项。但对于泌尿科,研究结果仅基于一项大型研究,因此其结论的普适性受到一定限制。

AI在医学教育中的潜力
研究人员指出,当前生成式AI模型在非专家环境下的表现与医生相当,这为将AI整合到医学培训中提供了机会。AI可以模拟真实病例,帮助医学生和受训者学习和评估他们的技能,从而提高医学教育的效率和质量。

未来研究方向
Hirotaka Takita博士表示,未来的研究需要在更复杂的临床场景中进行评估,使用实际病历进行性能评估,提高AI决策的透明度,并在不同患者群体中进行验证,以进一步证实AI的能力。

结论
这项研究表明,尽管生成式AI在医疗诊断领域的应用仍需谨慎,但其与非专家医生相当的诊断准确率表明AI在医学教育和支持非专家医生方面具有巨大潜力。随着技术的不断进步,AI在医疗领域的应用前景将更加广阔
如何不发帖就快速得到金币道行
 
我有我可以
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个