如今,时不时就会有研究声称人工智能在诊断健康问题方面比人类医生更胜一筹。这些研究之所以引人注目,是因为美国的医疗体系严重崩溃,每个人都在寻找解决方案。人工智能为医生提供了一个潜在的机会,通过为医生做大量的行政繁琐工作,让他们有时间看更多的病人,从而降低最终的医疗成本,提高他们的工作效率。实时翻译也有可能帮助非英语人士获得更好的服务。对于科技公司来说,为医疗行业服务的机会可能非常有利可图。
然而,在实践中,我们似乎还远未达到用人工智能取代医生的程度,甚至无法真正增强医生的能力。《华盛顿邮报》 采访了包括医生在内的多位专家,了解人工智能的早期测试进展如何,结果并不令人放心。
以下是斯坦福医学院临床教授克里斯托弗·夏普 (Christopher Sharp) 使用 GPT-4o 为联系其办公室的患者起草建议的摘录:
Sharp 随机挑选了一条患者问题。内容是:“吃了一个西红柿,嘴唇发痒。有什么建议吗?”
该人工智能使用 OpenAI 的 GPT-4o 版本,起草了一条回复:“很遗憾听到你嘴唇发痒。听起来你可能对西红柿有轻微的过敏反应。”人工智能建议避免食用西红柿,使用口服抗组胺药——并使用类固醇外用药膏。
夏普盯着屏幕看了一会儿。“从临床上来说,我并不完全同意这个答案,”他说。
“我完全同意不吃西红柿。另一方面,我不建议在嘴唇上涂抹温和的氢化可的松等外用药膏,”夏普说。“嘴唇的组织非常薄,所以我们在使用类固醇药膏时要非常小心。
“我会把那部分去掉。”
以下是斯坦福大学医学和数据科学教授 Roxana Daneshjou 的另一篇文章:
她打开笔记本电脑,打开 ChatGPT,输入了一个测试患者的问题。“亲爱的医生,我一直在母乳喂养,我想我得了乳腺炎。我的乳房一直发红,疼痛难忍。”ChatGPT 回答说:使用热敷、按摩和额外哺乳。
但皮肤科医生 Daneshjou 表示,这种做法是错误的。2022 年,母乳喂养医学院建议采取相反的做法:冷敷、避免按摩和避免过度刺激。
技术乐观主义者将人工智能推向医疗保健等领域的问题在于,这与制作消费软件不同。我们已经知道微软的 Copilot 365 助手存在漏洞,但 PowerPoint 演示文稿中的小错误并不是什么大问题。在医疗保健领域犯错可能会致命。Daneshjou 告诉《华盛顿邮报》,她与其他 80 人一起对 ChatGPT进行了红队测试,其中包括计算机科学家和医生,他们向 ChatGPT 提出医疗问题,发现它有 20% 的时间给出了危险的答案。“在我看来,20% 的问题答案不足以在医疗保健系统中实际日常使用,”她说。
当然,支持者会说 AI 可以增强医生的工作,而不是取代他们,他们应该始终检查输出结果。这是真的,《华盛顿邮报》采访了一位斯坦福大学的医生,他说那里三分之二的医生可以使用平台记录并用 AI 转录患者会面,这样他们就可以在问诊期间看着患者的眼睛,而不用低头做笔记。但即便如此,OpenAI 的 Whisper 技术似乎也会在某些录音中插入完全虚构的信息。夏普说,Whisper 错误地将患者将咳嗽归因于接触孩子的记录插入到记录中,但他们从未说过这一点。Daneshjou 在测试中发现了一个令人难以置信的训练数据偏差例子,那就是 AI 转录工具假设一名中国患者是一名计算机程序员,而患者从未提供过此类信息。
人工智能可能会为医疗保健领域带来帮助,但其输出结果必须经过彻底检查,那么医生实际上节省了多少时间呢?此外,患者必须相信他们的医生确实在检查人工智能产生的结果——医院系统必须进行检查以确保这一点,否则可能会出现自满情绪。
从根本上讲,生成式人工智能只是一台词语预测机器,它搜索大量数据,却无法真正理解它返回的底层概念。它并不像真正的人类一样“智能”,尤其是无法理解每个特定个体独有的情况;它返回的是它已经概括并见过的信息。
“我确实认为这是很有前途的技术之一,但目前还未实现,”贝斯以色列女执事医疗中心的内科医生兼人工智能研究员亚当·罗德曼 (Adam Rodman) 表示。“我担心,如果将幻觉般的‘人工智能垃圾’投入到高风险的患者护理中,我们的工作质量将进一步下降。”
下次您去看医生时,也许值得询问他们是否在工作流程中使用人工智能。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/yi-sheng-cheng-ren-gong-zhi-neng-zheng-zai-gei-huan-zhe-hu