OpenAI 正在资助能够预测人类道德判断的算法的学术研究。
在提交给美国国税局的文件中,OpenAI 的非盈利组织 OpenAI Inc. 披露,它向杜克大学的研究人员提供了一项名为“研究人工智能道德”的项目资助。在接受采访时,OpenAI 的一位发言人指出,一份新闻稿表明,该奖项是向杜克大学教授提供的一项为期三年、金额高达 100 万美元的资助的一部分,这些教授正在研究“制造道德人工智能”。
关于 OpenAI 资助的这项“道德”研究,除了资助将于 2025 年结束之外,很少有公开的信息。该研究的首席研究员、杜克大学实用伦理学教授 Walter Sinnott-Armstrong 表示,他“无法谈论”这项工作。
Sinnott-Armstrong 和该项目的联合研究员 Jana Borg 已经完成了几项研究,并出版了一本书,探讨了人工智能作为“道德 GPS”帮助人类做出更好判断的潜力。作为大型团队的一员,他们创建了一种“道德一致”的算法来帮助决定谁接受肾脏捐赠,并研究了在哪些情况下人们更希望人工智能做出道德决定。
根据新闻稿,OpenAI 资助的研究工作的目标是训练算法,以在涉及“医学、法律和商业中的道德相关特征”冲突的场景中“预测人类的道德判断”。
但目前还不清楚,像道德这样微妙的概念是否在当今技术所能及的范围内。
2021 年,非营利性机构艾伦人工智能研究所 (Allen Institute for AI) 开发了一款名为 Ask Delphi 的工具,旨在提供符合道德的建议。它能够很好地判断基本的道德困境——例如,该机器人“知道”考试作弊是错误的。但稍微改写和重新措辞问题就足以让 Delphi 批准几乎任何事情,包括窒息婴儿。
原因与现代人工智能系统的工作方式有关。
机器学习模型是统计机器。通过对来自网络的大量示例进行训练,它们会学习这些示例中的模式以进行预测,例如短语“致谁”通常位于“可能相关”之前。
人工智能不理解道德概念,也不理解道德决策中涉及的推理和情感。这就是为什么人工智能倾向于附和西方受过教育和工业化国家的价值观——网络以及人工智能的训练数据中充斥着支持这些观点的文章。
毫不奇怪,许多人的价值观并没有在人工智能给出的答案中得到体现,特别是如果这些人没有通过在线发布来为人工智能的训练集做出贡献。人工智能会吸收西方人以外的一系列偏见。德尔菲说,异性恋比同性恋更“在道德上可接受”。
OpenAI 及其支持的研究人员面临的挑战因道德固有的主观性而变得更加棘手。数千年来,哲学家们一直在争论各种伦理理论的优点,但目前还没有一个普遍适用的框架。
克劳德支持康德主义(即专注于绝对的道德规则),而 ChatGPT 则略微偏向功利主义(优先考虑大多数人的最大利益)。两者孰优孰劣?这取决于你问的是谁。
预测人类道德判断的算法必须将所有这些因素考虑在内。这是一个非常高的标准——假设这种算法是可能的。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/openai-zheng-zai-zi-zhu-ren-gong-zhi-neng-dao-de-yan-jiu