AI完败于人类医生!研究发现:大模型临床决策草率且不安全,最低正确率仅13%
阎荟
2024-07-29 00:00:00
293
最近的一项研究表明,在临床决策方面,人类医生的表现优于大型语言模型(LLMs)。
LLMs在四种常见腹部疾病的诊断准确率从73%到低至13%不等。与人类医生相比,LLMs在遵循医疗指南、订购测试和解释结果方面表现更差。LLMs表现出不一致性,并编造了不存在的指南。LLMs需要重大的临床监督。需要进一步的研究和合作,以优化LLMs在临床环境中的应用。尽管人工智能在病理学、个性化健康改善和疾病预防方面具有潜力,但它还不能取代人类医生在临床决策中的作用。这篇内容对于对人工智能和医疗保健交叉领域感兴趣的人来说非常重要,它挑战了AI可以独立处理复杂医疗任务而无需人类干预的观念。- 人类医生在临床决策方面击败了人工智能(AI)模型。
- 最先进的大语言模型(LLM)的诊断正确率仅为73%,而人类医生的正确率为89%。
- LLM在胆囊炎诊断方面的正确率仅为13%。
- LLM在临床决策中表现草率且不安全,容易遗漏重要信息和给出错误的指导。
- LLM需要大量医生临床监督才能正常运行。
- 目前,AI在医疗领域仍不如人类医生。
版权声明:
创新中心创新赋能平台中,除来源为“创新中心”的文章外,其余转载文章均来自所标注的来源方,版权归原作者或来源方所有,且已获得相关授权,若作者版权声明的或文章从其它站转载而附带有原所有站的版权声明者,其版权归属以附带声明为准。其他任何单位或个人转载本网站发表及转载的文章,均需经原作者同意。如果您发现本平台中有涉嫌侵权的内容,可填写
「投诉表单」进行举报,一经查实,本平台将立刻删除涉嫌侵权内容。
评论