人工智能监管一直是一个热门话题。但随着即将上任的美国政府准备拆除人工智能护栏,监管也成为一个大问号。对于本已复杂的合规环境来说,这更加复杂,也更加不稳定。AI Impact Tour与 Capgemini 合作,在华盛顿特区停留,讨论即将到来的监管环境将带来的不断变化的风险和令人惊讶的新机遇——以及如何应对新的不确定常态的见解。
Matt Marshall 与 Fidelity Labs 高级副总裁 Vall Hérard 以及 Verizon 人工智能/机器学习工程高级总监 Xuning (Mike) Tang 讨论了金融服务和电信领域人工智能监管面临的重大且日益严峻的挑战,并与凯捷公司数据驱动业务和生成人工智能执行副总裁 Steve Jones 深入探讨了风险管理、问责威胁等问题。
问责是一个不断变化的目标
琼斯说,问题在于,缺乏监管归根结底就是缺乏问责制,当涉及到大型语言模型的行为时——包括侵占知识产权。如果没有监管和法律后果,解决知识产权盗窃问题要么归结为诉讼案件,要么更有可能,尤其是在法学硕士属于一家财力雄厚的公司的情况下,责任将落到最终用户身上。当盈利能力超过财务打击的风险时,一些公司就会突破界限。
“我认为公平地说,法院的监管力度不够,事实上,人们将不得不毒害他们的公共内容,以避免失去他们的知识产权,”琼斯说。“这很可悲,但如果你把内容放到互联网上,突然有人盗用你的全部内容,并直接出售,那么这绝对是必须的。”
明确责任
在现实世界中,不受监管的人工智能陪伴应用已经导致了真正的悲剧,例如一名 14 岁男孩自杀,他与朋友和家人隔绝,转而选择与聊天机器人陪伴。如果监管进一步失灵,产品责任如何才能在此类案件中发挥作用,防止此类事件发生在其他用户身上?
“从人工智能的角度来看,这些大规模杀伤性武器威力惊人。应该有人负责控制它们,”琼斯说。“我坚信,只有有动力,才能让生产这些产品的公司承担起责任。”
例如,该儿童的家人正在对聊天机器人公司采取法律行动,该公司目前已在其平台上实施了新的安全和自动审核政策。
监管较少的世界中风险管理
当今的人工智能战略需要围绕风险管理,了解您的业务面临的风险,并保持对风险的控制。琼斯补充说,人们对潜在数据泄露问题并没有太多的愤怒,因为从商业角度来看,真正的愤怒是人工智能失误可能会如何影响公众的看法,以及诉讼的威胁,无论它涉及人命还是底线。
“如果我向客户展示幻觉,我的品牌形象就会变得很糟糕,这会引起愤怒,”琼斯说。“但我会被起诉吗?我发布的内容是否无效?我发布的内容是否看起来像是抄袭了竞争对手?所以我不太担心愤怒。我更担心律师会来做生意。”
取消 LLM 中的 L 课程
他补充说,将模型保持尽可能小将是另一个关键策略。法学硕士功能强大,可以完成一些令人惊叹的任务。但企业是否需要法学硕士来下棋、说克林贡语或写史诗?唐早些时候指出,模型越大,隐私问题的可能性就越大,潜在的威胁载体也越多。Verizon 的流量数据中包含大量内部信息,而封装所有这些信息的模型将是庞大的,并且存在隐私风险,因此 Verizon 旨在使用提供最佳结果的最小模型。
Hérard 表示,用于处理特定、定义狭窄的任务的小型模型也是减少或消除幻觉的关键方法。当用于训练模型的数据集大小足以进行全面合规性审查时,这种方式更容易控制合规性。
“令人惊奇的是,在企业用例中,了解我的业务问题、了解我的数据后,这个小模型常常能提供一组非凡的结果,”琼斯说。“然后结合微调,就可以做我想要的事情,并进一步降低我的风险。”
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/ren-gong-zhi-neng-jian-guan-de-wei-lai-shang-bu-que-ding