加州大学默塞德分校最近的一项研究揭示了一个令人担忧的趋势:我们倾向于过度信任人工智能系统,即使在生死攸关的情况下。
随着人工智能不断渗透到我们社会的各个方面,从智能手机助手到复杂的决策支持系统,我们发现自己越来越依赖这些技术来指导我们的选择。虽然人工智能无疑带来了许多好处,但加州大学默塞德分校的研究提出了一个令人担忧的问题:在危急情况下,我们是否愿意听从人工智能的指引。
这项研究发表在《科学报告》杂志上,揭示了人类在模拟生死场景中令人吃惊的倾向,即允许人工智能影响他们的判断。这一发现出现在人工智能被整合到各个领域高风险决策过程的关键时刻,从军事行动到医疗保健和执法。
加州大学默塞德分校的研究
为了调查人类对人工智能的信任,加州大学默塞德分校的研究人员设计了一系列实验,让参与者处于模拟的高压环境中。这项研究的方法旨在模拟现实世界中的场景,在这些场景中,瞬间做出的决定可能会产生严重后果。
方法论:模拟无人机打击决策
参与者需要控制一架模拟武装无人机,并负责识别屏幕上的目标。这项挑战被刻意设计得既困难又可实现,图像快速闪烁,参与者需要区分盟友和敌人的符号。
在做出初步选择后,参与者将收到来自人工智能系统的输入。参与者不知道的是,人工智能的建议完全是随机的,并非基于对图像的任何实际分析。
三分之二的人受到人工智能输入的影响
研究结果令人震惊。大约三分之二的参与者在人工智能不同意他们的观点时改变了最初的决定。尽管参与者被明确告知人工智能能力有限,可能会提供错误的建议,但这种情况仍然发生了。
该研究的首席研究员科林·霍尔布鲁克 (Colin Holbrook) 教授对这些发现表示担忧:“作为一个社会,随着人工智能的发展如此之快,我们需要担心过度信任的可能性。”
机器人的多种外观及其影响
该研究还探讨了人工智能系统的外貌是否会影响参与者的信任程度。研究人员使用了一系列人工智能表征,包括:
- 房间里有一个全尺寸、类似人类的机器人
- 投射在屏幕上的类人机器人
- 没有任何拟人化特征的盒子状机器人
有趣的是,虽然类人机器人在建议参与者改变主意时具有略强的影响力,但这种影响在各种类型的人工智能表现中都相对一致。这表明我们倾向于相信人工智能的建议,这种倾向不仅限于拟人化的设计,甚至适用于明显非人类的系统。
战场之外的影响
虽然这项研究以军事场景为背景,但这些发现的影响远远超出了战场。研究人员强调,核心问题——在不确定的情况下对人工智能的过度信任——在各种关键决策环境中都有广泛的应用。
- 执法决策:在执法领域,将人工智能用于风险评估和决策支持正变得越来越普遍。这项研究的结果提出了一个重要的问题:人工智能的建议可能会如何影响警官在高压情况下的判断,从而可能影响使用武力的决策。
- 医疗紧急情况:医疗领域是人工智能取得重大进展的另一个领域,特别是在诊断和治疗计划方面。加州大学默塞德分校的研究表明,医疗专业人员在将人工智能建议融入决策过程中时需要谨慎,尤其是在时间至关重要且风险很高的紧急情况下。
- 其他高风险决策环境:除了这些具体的例子之外,这项研究的结果对任何在压力和信息不完整的情况下做出关键决策的领域都有影响。这可能包括金融交易、灾难响应,甚至高层政治和战略决策。
关键的一点是,虽然人工智能可以成为增强人类决策能力的有力工具,但我们必须警惕过度依赖这些系统,尤其是当错误决策的后果可能很严重时。
人工智能信任的心理学
加州大学默塞德分校的研究结果提出了一些有趣的问题:是什么心理因素导致人类即使在高风险的情况下也对人工智能系统给予如此高的信任。
造成这种“过度信任人工智能”现象的因素可能有以下几个:
- 人工智能本质上是客观的,不受人类偏见的影响
- 倾向于认为人工智能系统的能力比其实际拥有的能力更强
- “自动化偏见”,即人们过分重视计算机生成的信息
- 在艰难的决策情况下可能放弃责任
霍尔布鲁克教授指出,尽管受试者被告知了人工智能的局限性,但他们仍然以惊人的速度听从人工智能的判断。这表明我们对人工智能的信任可能比我们之前认为的更加根深蒂固,可能会压倒对其易犯错误的明确警告。
这项研究揭示的另一个令人担忧的方面是,人工智能能力倾向于在不同领域推广。由于人工智能系统在特定领域表现出令人印象深刻的能力,因此人们可能会认为它们在不相关的任务上也同样熟练。
“我们看到人工智能正在做着非凡的事情,我们认为,因为它在这个领域表现惊人,所以它在另一个领域也会表现惊人,”霍尔布鲁克教授警告说。“我们不能这样想。这些设备仍然功能有限。”
这种误解可能会导致危险的情况,即在人工智能的能力尚未经过彻底审查或证明的领域,人们就被委托做出关键决策。
加州大学默塞德分校的研究还引发了专家们关于人机交互的未来(特别是在高风险环境中)的重要对话。
这项研究的关键人物霍尔布鲁克教授强调,需要采取更细致入微的方法来整合人工智能。他强调,虽然人工智能可以是一个强大的工具,但它不应该被视为人类判断的替代品,尤其是在危急情况下。
霍尔布鲁克表示:“我们应该对人工智能保持合理的怀疑态度,尤其是在生死攸关的决定上。”这种观点强调了在关键时刻保持人类监督和最终决策权的重要性。
该研究结果促使人们呼吁采取更加平衡的方法来采用人工智能。专家建议组织和个人应该对人工智能系统保持“健康的怀疑态度”,其中包括:
- 认识人工智能工具的具体能力和局限性
- 在接受人工智能生成的建议时保持批判性思维技能
- 定期评估正在使用的人工智能系统的性能和可靠性
- 提供有关正确使用和解释人工智能输出的全面培训
平衡人工智能集成和人类判断
随着我们不断将人工智能融入决策的各个方面,负责任的人工智能以及在利用人工智能能力和保持人类判断之间找到适当的平衡至关重要。
加州大学默塞德分校研究的一项重要结论是,在与人工智能系统互动时始终保持怀疑非常重要。这并不意味着完全拒绝人工智能输入,而是以批判的心态对待它,并评估其在每种特定情况下的相关性和可靠性。
为了防止过度信任,人工智能系统的用户必须清楚了解这些系统能做什么和不能做什么。这包括认识到:
- 人工智能系统是在特定数据集上进行训练的,在训练领域之外可能表现不佳
- 人工智能的“智能”并不一定包括道德推理或现实世界意识
- 人工智能可能会犯错误或产生有偏见的结果,尤其是在处理新情况时
关键领域负责任地采用人工智能的策略
希望将人工智能融入关键决策过程的组织应该考虑以下策略:
- 在部署之前对人工智能系统实施强有力的测试和验证程序
- 为人类操作员提供关于人工智能工具的能力和局限性的全面培训
- 建立明确的协议,规定何时以及如何在决策过程中使用人工智能输入
- 保持人工监督,并在必要时推翻人工智能建议的能力
- 定期审查和更新人工智能系统,以确保其持续的可靠性和相关性
底线
加州大学默塞德分校的研究为我们敲响了警钟,让我们意识到过度信任人工智能可能带来危险,尤其是在高风险情况下。随着我们即将在各个领域广泛使用人工智能,我们必须既热情又谨慎地对待这场技术革命。
未来人机协作决策需要一种微妙的平衡。一方面,我们必须利用人工智能的巨大潜力来处理大量数据并提供有价值的见解。另一方面,我们必须保持健康的怀疑态度,保留人类判断中不可替代的元素,包括道德推理、情境理解以及在复杂的现实场景中做出细微决策的能力。
随着我们不断前进,持续的研究、开放的对话和深思熟虑的政策制定对于塑造未来至关重要,未来人工智能将增强而不是取代人类的决策能力。通过培养明智的怀疑态度和负责任的人工智能采用文化,我们可以努力创造一个人类和人工智能系统有效协作的未来,利用两者的优势在生活的各个方面做出更好、更明智的决定。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/ren-gong-zhi-neng-ru-he-ying-xiang-ren-lei-guan-jian-jue-ce