杜克大学报告确定了采用智能医疗保健系统的障碍
扫描二维码
随时随地手机看文章
(文章来源:携手健康网)
杜克-马戈利斯卫生政策中心确定了开发和采用安全有效的AI诊断诊断支持软件(DxSS)的障碍。
人工智能改善DxSS并减少诊断错误的潜力吸引了很多关注,但中心仍认为需要解决的证据,风险和道德仍然令人担忧。为了解决这些问题,Duke-Margolis认为该领域需要考虑开发最佳实践以减轻偏见并重新考虑产品标签。
诊断错误的普遍性及其对患者的影响为改进临床决策支持技术提供了强大的动力。根据报告,由国家科学学院,工程和医学,诊断错误占60%左右,所有医疗差错。也许最令人不安的是,在美国医院中,每年有40,000至80,000例死亡与诊断错误有关。
人工智能的拥护者将诊断错误的普遍性视为数据问题,至少部分可以通过技术加以改善。从理论上讲,人工智能系统可以扫描患者数据并提供比当前所能实现的更快,更准确的诊断,从而使人们能够更快地获得正确的护理。
在该部门与实现这一愿景之间存在许多障碍。杜克-马戈利斯(Duke-Margolis)汇集了华盛顿特区,杜克大学和杜克健康局(Duke Health)政策界的专业知识,并与FDA的前任和现任官员以及Alphabet的Verily Life Sciences合作编写了有关该主题的报告。
结果是确定了AI社区要成为主流技术将需要解决的三个主要领域的文档。这些领域涵盖支持采用,有效风险管理和确保系统经过道德培训且具有灵活性的措施的证据。
解决这些主题的责任将落在技术供应商,监管机构,医疗保健提供商以及组成支持AI的DxSS部门的其他团体的不同部分。结果是,尽管DxSS开发人员可以解决使用其技术的一些障碍,例如对有效性证据的需求,但他们并不能完全控制自己的命运。
例如,杜克-马戈利斯(Duke-Margolis)确定了对产品标签的全新思考的潜在需求。当前产品标签和其他主题(包括验证和确认)的监管模型是针对具有固定功能的设备量身定制的。由于AI系统在获得监管机构批准后可以继续“学习”并改进,因此尚不清楚它们如何适应当前模型。
“需要更加清楚地了解,何时需要对启用AI的[作为医疗设备的软件]进行修改或更新,并要求向FDA提交新的510(k)或补充PMA,以及何时这些质量体系将足够,”玛格丽丝在报告中写道。