由于机器学习和人工智能的使用,美国的医疗保健正处于重大潜在颠覆的早期阶段。这种转变已经进行了十多年,但随着最近的进展,似乎将迎来更快的变化。我们仍有许多工作要做,以了解人工智能在医疗保健中最安全、最有效的应用,建立临床医生对人工智能使用的信任,并调整我们的临床教育系统以推动更好地使用基于人工智能的系统。
人工智能在医疗保健领域的应用
人工智能在医疗保健领域已经发展了几十年,既包括面向患者的功能,也包括后台功能。一些最早和最广泛的工作是在深度学习和计算机视觉模型的使用方面进行的。
首先,介绍一些术语。传统的统计研究方法(例如观察性研究和临床试验)采用的是依赖回归模型的以人群为中心的建模方法,其中使用独立变量来预测结果。在这些方法中,虽然数据越多越好,但存在平台效应,即超过一定数据集大小时,无法从数据中获得更好的推论。
人工智能为预测带来了一种新方法。一种称为感知器的结构处理每次传递一行的数据,并创建为微分方程层网络来修改输入数据,从而产生输出。在训练期间,每行数据在通过网络(称为神经网络)时都会修改网络每一层的方程,以使预测输出与实际输出相匹配。在处理训练集中的数据时,神经网络会学习如何预测结果。
存在几种类型的网络。卷积神经网络(CNN)是首批在医疗保健应用中获得成功的模型之一。CNN 非常擅长在计算机视觉过程中从图像中学习,并且已经找到了图像数据占主导地位的应用:放射学、视网膜检查和皮肤图像。
一种称为 Transformer 架构的较新的神经网络类型已成为主流方法,因为它在文本以及文本和图像组合(也称为多模态数据)方面取得了巨大成功。当给定一组文本时,Transformer 神经网络在预测后续文本方面表现出色。Transformer 架构的一个应用是大型语言模型 (LLM)。LLM 的多个商业示例包括 Chat GPT、Anthropics Claude 和 Metas Llama 3。
总体而言,神经网络的学习能力很难达到提升的瓶颈。换句话说,只要有越来越多的数据,神经网络就会不断学习和改进。其能力的主要限制因素是越来越大的数据集和训练模型的计算能力。在医疗保健领域,创建忠实代表真实临床护理的隐私保护数据集是推进模型开发的关键优先事项。
LLM 可能代表了人工智能在医疗保健领域的应用范式转变。由于它们擅长处理语言和文本,因此非常适合几乎所有数据都是文本的电子记录。它们也不需要高度注释的数据进行训练,而是可以使用现有的数据集。这些模型的两个主要缺陷是:1)它们没有世界模型或对正在分析的数据的理解(它们被称为花哨的自动完成),2)它们可能会产生幻觉或虚构,编造看似准确但却会创建以事实形式呈现的信息的文本或图像。
正在探索的人工智能用例包括自动读取放射图像、视网膜图像和其他图像数据;减少工作量并提高临床文档的准确性(这是临床医生倦怠的主要原因);更好、更具同理心的患者沟通;并提高收入周期、运营和计费等后台职能的效率。
真实案例
总体而言,AI 已逐步引入临床护理。通常,AI 的成功使用遵循同行评审的性能试验,这些试验已证明其成功,并且在某些情况下,还获得 FDA 批准使用。
人工智能在视网膜检查图像和放射学中检测疾病是最早表现出色的例子之一。对于视网膜检查,在发表有关这些模型性能的文献之后,人们开始部署自动眼底镜来检测门诊环境中的视网膜疾病。图像分割研究取得了许多成功成果,并产生了多种软件解决方案,这些解决方案为放射科医生提供决策支持,减少错误并检测异常,从而使放射科医生的工作流程更加高效。
正在探索更新的大型语言模型,以协助临床工作流程。环境语音正被用于增强电子健康记录 (EHR) 的使用。目前,正在实施人工智能抄写员来协助医疗文档。这使得医生可以专注于患者,而人工智能负责文档处理过程,从而提高效率和准确性。
此外,医院和卫生系统可以利用 AI 的预测建模功能对患者进行风险分层,识别出处于高风险或增加风险的患者并确定最佳治疗方案。事实上,AI 的集群检测功能正越来越多地用于研究和临床护理,以识别具有相似特征的患者并确定适合他们的典型临床治疗方案。这还可以使虚拟或模拟临床试验能够确定最有效的治疗方案并衡量其疗效。
未来的用例可能是在医患沟通中使用人工智能语言模型。这些模型已被发现对患者有有效的反应,可以模拟富有同理心的对话,从而更容易处理困难的互动。人工智能的这种应用可以根据病情和信息的严重程度更快、更有效地对患者信息进行分类,从而大大改善患者护理。
挑战和道德考量
在医疗保健领域实施人工智能的一个挑战是确保在使用人工智能工具时遵守法规、患者安全和临床疗效。虽然临床试验是新疗法的标准,但人们对人工智能工具是否应该遵循同样的方法存在争议。另一个担忧是数据泄露和患者隐私受损的风险。在受保护数据上训练的大型语言模型可能会泄露源数据,这对患者隐私构成重大威胁。医疗保健组织必须找到保护患者数据和防止泄露的方法,以维护信任和机密性。训练数据中的偏见也是一个需要解决的关键挑战。为了避免模型出现偏差,必须引入更好的方法来避免训练数据中的偏见。开发培训和学术方法至关重要,这些方法可以实现更好的模型训练,并将公平性纳入医疗保健的各个方面,以避免偏见。
人工智能的使用为创新开辟了许多新的关注点和前沿。需要进一步研究人工智能应用的真正临床益处。为了应对这些挑战和道德问题,医疗保健提供商组织和软件公司必须专注于开发能够准确模拟医疗保健数据的数据集,同时确保匿名性和保护隐私。此外,必须建立医疗保健提供商、系统和技术/软件公司之间的合作伙伴关系,以安全和周到的方式将人工智能工具付诸实践。通过应对这些挑战,医疗保健组织可以充分利用人工智能的潜力,同时维护患者的安全、隐私和公平。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/li-yong-ren-gong-zhi-neng-jie-suo-yi-liao-bao-jian-ling-yu