Rebecca Portnoff 博士接受采访,她是非营利组织 Thorn 的数据科学副总裁,该组织致力于开发保护儿童免受性虐待的技术。 该系列报道旨在让专注于人工智能的女性学者和其他人士获得应得的——也是迟来的——关注。
她曾就读于普林斯顿大学,后在加州大学伯克利分校获得计算机科学博士学位。自 2016 年以来,她一直在 Thorn 工作,并不断晋升。她最初是一名志愿研究科学家,八年后的今天,她领导着一个团队,该团队可能是世界上唯一致力于开发机器学习和人工智能来阻止、预防和保护儿童免受性虐待的团队之一。
“在普林斯顿大学读大四的时候,我正在考虑毕业后该做什么,我姐姐推荐我读尼古拉斯·克里斯托夫和谢丽尔·吴顿合著的《半边天》,这本书让我了解了儿童性虐待的话题,”她说这本书启发了她研究如何在这个领域有所作为。她继续撰写博士论文,重点研究了机器学习和人工智能在这个领域的应用。
保护儿童的使命
在 Thorn,Portnoff 的团队帮助识别受害者、防止再次受害以及防止性虐待材料的病毒式传播。去年,她领导了 Thorn 和 All Tech Is Human 联合发起的“安全设计”计划,该计划致力于防止人们利用生成式人工智能对儿童进行性伤害。
“这是一个巨大的进步,我们共同定义了原则和缓解措施,以防止生成模型产生滥用材料,使此类材料更可靠地被检测到,并防止用于产生此类滥用材料的模型、服务和应用程序的传播,然后协调行业领导者遵守这些标准,”她回忆道。她说她遇到了许多致力于这一事业的人,“但我的头发也比刚开始的时候多了很多。”
据此前报道,使用人工智能制作非自愿性爱图像已成为一个热门话题,尤其是随着人工智能色情图像生成技术变得越来越复杂。目前还没有全面的联邦法律来保护或防止未经他人同意而生成的人工智能性爱图像,不过佛罗里达州、路易斯安那州和新墨西哥州等个别州已经通过了自己的立法,专门针对人工智能虐待儿童的行为。
事实上,她说这是人工智能发展过程中面临的最紧迫问题之一。“十分之一的未成年人报告说,他们知道同龄人制作其他孩子裸照的情况,”她说。
“我们不必生活在这样的现实中,我们允许它发展到这个地步是不可接受的。”她说,但是,可以采取一些缓解措施来防止和减少这种滥用。例如,索恩倡导科技公司采用安全设计原则和缓解措施,并公开分享他们如何防止其生成式人工智能技术和产品被滥用于进一步的儿童性虐待,与电气电子工程师协会 (IEEE) 和国家标准与技术研究所 (NIST) 等专业组织合作,支持为公司制定可用于审计进展的标准,并与政策制定者接触,告知他们这一点的重要性。
她表示:“有必要制定以影响力为基础的立法,让所有公司和利益相关者参与进来。”
女性在人工智能领域工作
波特诺夫回忆说,在她不断晋升的人工智能领域,人们忽视了她的建议,而是要求与有技术背景的人交谈。“我的回答是?‘别担心,你正在与有技术背景的人交谈,’”她说。
她说,有几件事帮助她在这样一个男性主导的领域工作:做好准备、自信行事和假设善意。做好准备可以帮助她更自信地进入房间,而自信则使她能够以好奇心和大胆的态度应对挑战,“首先寻求理解,然后寻求被理解”,她继续说。
“假设善意可以帮助我以善意而不是防御的态度应对挑战,”她说。“如果真的没有这种善意,它最终会显露出来。”
她对想要进入人工智能领域的女性的建议是,永远相信自己的能力和意义。她说,很容易陷入这样的陷阱:让人们对你的假设决定你的潜力,但在当前的人工智能革命中,每个人的声音都是必要的。
“随着机器学习/人工智能越来越融入我们的人类系统,我们所有人都需要共同努力,确保它能够以促进我们集体繁荣的方式完成,并优先考虑我们中最脆弱的群体。”
构建符合道德的人工智能
Portnoff 表示,负责任的 AI 有很多方面,包括对透明度、公平性、可靠性和安全性的需求。“但它们都有一个共同点,”她继续说道。“负责任地构建 ML/AI 需要与更多利益相关者合作,而不仅仅是与你的同行技术人员合作。”
这意味着更加积极的倾听和协作。“如果你正在遵循构建负责任的人工智能的路线图,并且发现在此过程中你没有与组织或工程团队以外的任何人交谈,那么你可能走错了方向。”
此外,随着投资者继续向人工智能初创公司投入数十亿美元,波特诺夫建议投资者可以在尽职调查阶段就开始考虑责任问题,在投资前先了解公司的道德承诺,然后要求其满足某些标准。这可以“防止伤害并实现积极增长”。
“还有很多工作要做,”她泛泛地说,“而你可以成为实现这些目标的人。”
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/ren-gong-zhi-neng-ling-yu-de-nyu-xing-rebecca-portnoff-bo