研究人员称,医疗领域的人工智能应该受到监管,但不要忘记算法

在最近的一篇评论中,麻省理工学院、Equality AI 和波士顿大学的团队强调了医疗保健领域人工智能模型和非人工智能算法的监管差距。

研究人员称,医疗领域的人工智能应该受到监管,但不要忘记算法

有人可能会说,医生的主要职责之一就是不断评估和重新评估可能性:医疗程序成功的几率有多大?患者是否有出现严重症状的风险?患者何时应该回来接受更多检查?在这些关键的审议中,人工智能的兴起有望降低临床环境中的风险,并帮助医生优先照顾高风险患者。

尽管人工智能具有巨大潜力,但在美国卫生与公众服务部(HHS)民权办公室(OCR)根据《平价医疗法案》(ACA)发布新规定后,麻省理工学院电气工程与计算机科学系(EECS)、Equality AI 和波士顿 大学的研究人员在《新英格兰医学人工智能杂志》(NEJM AI)10 月刊上发表的一篇评论中呼吁监管机构加强对人工智能的监督。

今年 5 月,民权办公室发布了 《平价医疗法案》的最终规则,禁止在“患者护理决策支持工具”中基于种族、肤色、国籍、年龄、残疾或性别进行歧视,“患者护理决策支持工具”是一个新设立的术语,涵盖医学中使用的人工智能和非自动化工具。

该最终规则是根据总统乔·拜登 于 2023 年发布的《关于安全、可靠和值得信赖地开发和使用人工智能的行政命令》制定的,它建立在拜登-哈里斯政府致力于通过防止歧视来促进健康公平的承诺之上。 

据资深作者兼 EECS 副教授 Marzyeh Ghassemi 称,“该规则是向前迈出的重要一步。” Ghassemi 隶属于麻省理工学院阿卜杜勒·拉蒂夫·贾米尔健康机器学习诊所 (Jameel Clinic)、计算机科学与人工智能实验室 (CSAIL) 和医学工程与科学研究所 (IMES),他补充说,该规则“应该规定对已在临床专科中使用非人工智能算法和临床决策支持工具进行公平驱动的改进。”

自 1995 年批准第一台支持人工智能的设备(PAPNET 检测系统,一种宫颈筛查工具)以来,美国食品药品管理局 (FDA) 批准的支持人工智能的设备数量在过去十年中急剧增加。 截至 10 月,FDA 已批准近 1,000 种支持人工智能的设备,其中许多旨在支持临床决策。

然而,研究人员指出,尽管大多数美国医生(65%)每月都会使用这些工具来确定患者护理的下一步措施,但没有监管机构监督临床决策支持工具产生的临床风险评分。

为了解决这一缺陷,Jameel 诊所将于 2025 年 3 月 举办另一场监管会议。去年的会议引发了教师、来自世界各地的监管机构和行业专家之间的一系列讨论和辩论,重点关注医疗领域人工智能的监管。

哈佛医学院生物医学信息学系主任、NEJM AI 主编 Isaac Kohane 评论道:“临床风险评分比‘AI’算法更透明,因为它们通常只涉及简单模型中相关的少数几个变量。尽管如此,这些评分的好坏也取决于用来‘训练’它们的数据集以及专家选择或研究特定群体的变量。如果它们影响临床决策,那么它们应该与最近且复杂得多的 AI 同类一样遵守相同的标准。

此外,虽然许多决策支持工具并不使用人工智能,但研究人员指出,这些工具在延续医疗保健偏见方面同样负有责任,需要进行监督。

“由于电子病历中嵌入的临床决策支持工具激增,且在临床实践中得到广泛应用,临床风险评分的监管面临巨大挑战,”Equality AI 首席执行官、合著者 Maia Hightower 表示。“此类监管对于确保透明度和不歧视仍然必不可少。”

然而,Hightower 补充道,在新政府的领导下,临床风险评分的监管可能会“特别具有挑战性,因为新政府强调放松管制,并反对《平价医疗法案》和某些反歧视政策”。 

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/yan-jiu-ren-yuan-cheng-yi-liao-ling-yu-de-ren-gong-zhi-neng

Like (0)
王 浩然的头像王 浩然作者
Previous 2天前
Next 1天前

相关推荐

发表回复

Please Login to Comment