随着人工智能系统日益渗透到我们日常生活中的关键决策过程,将道德框架融入人工智能开发正成为研究重点。在马里兰大学 (UMD),跨学科团队致力于解决规范推理、机器学习算法和社会技术系统之间复杂的相互作用。
在最近接受《人工智能新闻》采访时,博士后研究员Ilaria Canavotto和Vaishnav Kameswaran结合了哲学、计算机科学和人机交互方面的专业知识,以应对人工智能伦理方面的紧迫挑战。他们的工作涵盖了将伦理原则嵌入人工智能架构的理论基础以及人工智能在就业等高风险领域的部署的实际影响。
对人工智能系统的规范理解
Ilaria Canavotto 是马里兰大学“以价值观为中心的人工智能” (VCAI) 计划的研究员,隶属于高级计算机研究所和哲学系。她正在解决一个基本问题:我们如何才能让人工智能系统具备规范理解?随着人工智能越来越多地影响影响人权和福祉的决策,系统必须理解道德和法律规范。
“我研究的问题是,我们如何将这种信息、这种对世界的规范性理解,输入到机器人、聊天机器人或诸如此类的机器中?”卡纳沃托说。
她的研究结合了两种方法:
自上而下的方法:这种传统方法涉及将规则和规范明确地编入系统中。然而,卡纳沃托指出,“把它们写下来根本不可能那么容易。总是会出现新的情况。”
自下而上的方法:一种使用机器学习从数据中提取规则的新方法。虽然更灵活,但缺乏透明度:“这种方法的问题在于我们并不真正了解系统学到了什么,而且很难解释它的决定,”卡纳沃托指出。
Canavotto 和她的同事 Jeff Horty 和 Eric Pacuit 正在开发一种混合方法,将两种方法的优点结合起来。他们的目标是创建能够从数据中学习规则的人工智能系统,同时保持以法律和规范推理为基础的可解释决策过程。
“[我们的]方法[…]基于人工智能和法律领域。因此,在这个领域,他们开发了从数据中提取信息的算法。因此,我们希望推广其中一些算法,然后建立一个可以更普遍地提取基于法律推理和规范推理的信息的系统,”她解释道。
人工智能对招聘实践和残障人士融合的影响
卡纳沃托 (Canavotto) 专注于理论基础,而马里兰大学国家科学基金会可信人工智能与法律与社会研究所的 Vaishnav Kameswaran 则研究人工智能对现实世界的影响,特别是对残疾人的影响。
Kameswaran 的研究调查了人工智能在招聘过程中的使用情况,揭示了系统如何无意中歧视残疾求职者。他解释说:“我们一直在努力……打开黑匣子,试图了解这些算法在后端做什么,以及它们如何开始评估求职者。”
他的发现表明,许多人工智能驱动的招聘平台严重依赖常规行为线索(如眼神交流和面部表情)来评估候选人。这种方法可能对患有特定残疾的人不利。例如,视障候选人可能难以保持眼神交流,而人工智能系统通常会将这种信号解读为缺乏参与。
卡梅斯瓦兰警告称:“这些平台关注某些品质,并以此评估应聘者,这往往会加剧现有的社会不平等。”他认为,这种趋势可能会进一步将残疾人士边缘化,而这个群体已经面临巨大的就业挑战。
更广泛的道德格局
两位研究人员都强调,围绕人工智能的伦理问题远远超出了他们特定的研究领域。他们谈到了几个关键问题:
- 数据隐私和同意: 研究人员强调了当前同意机制的不足,特别是在 AI 训练的数据收集方面。Kameswaran 引用了他在印度工作中的例子,在 COVID-19 疫情期间,印度的弱势群体在不知情的情况下向 AI 驱动的贷款平台提供了大量个人数据。
- 透明度和可解释性: 两位研究人员都强调了解人工智能系统如何做出决策的重要性,尤其是当这些决策对人们的生活产生重大影响时。
- 社会态度和偏见: 卡梅斯瓦兰指出,单靠技术手段无法解决歧视问题。社会需要更广泛地改变对边缘群体(包括残疾人)的态度。
- 跨学科合作:马里兰大学研究人员的工作体现了哲学、计算机科学和其他学科在解决人工智能伦理问题上合作的重要性。
展望未来:解决方案与挑战
尽管挑战巨大,但两位研究人员都在努力寻找解决方案:
- 卡纳沃托 (Canavotto) 对规范人工智能的混合方法可能会带来更具道德意识和可解释的人工智能系统。
- Kameswaran 建议为倡导团体开发审计工具,以评估人工智能招聘平台是否存在歧视。
- 两人都强调政策变革的必要性,例如更新《美国残疾人法案》以解决与人工智能相关的歧视问题。
然而,他们也承认问题的复杂性。正如 Kameswaran 所说,“不幸的是,我认为使用某些类型的数据和审计工具训练人工智能的技术解决方案本身并不能解决问题。因此,这需要多管齐下的方法。”
研究人员的工作得出的一个关键结论是,公众需要更多地了解人工智能对我们生活的影响。人们需要知道他们分享了多少数据或这些数据是如何被使用的。正如卡纳沃托指出的那样,公司往往有动机隐藏这些信息,他们将其定义为“试图告诉你,如果你给我数据,我的服务会对你更好”的公司。
研究人员认为,还需要做更多工作来教育公众并让公司承担责任。最终,卡纳沃托和卡梅斯瓦兰的跨学科方法将哲学探究与实际应用相结合,是朝着正确方向前进的道路,确保人工智能系统既强大又合乎道德和公平。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/lian-jie-dai-ma-he-liang-zhi-ma-li-lan-da-xue-dui-dao-de-he