Anthropic指出了人工智能系统的潜在风险,并呼吁制定完善的监管措施,以避免潜在的灾难。该组织认为,有针对性的监管对于充分利用人工智能的优势并减轻其风险至关重要。
随着人工智能系统在数学、推理和编码等能力方面的不断发展,其在网络安全甚至生物和化学学科等领域的潜在滥用显著增加。
Anthropic 警告称,未来 18 个月对于政策制定者来说至关重要,因为主动预防的时间窗口正在缩小。值得注意的是,Anthropic 的 Frontier Red Team 强调了当前模型如何已经能够为各种网络攻击相关任务做出贡献,并预计未来模型将更加有效。
尤其令人担忧的是,人工智能系统可能会加剧化学、生物、放射和核 (CBRN) 滥用。英国人工智能安全研究所发现,目前有几种人工智能模型在回答科学相关问题方面可以达到博士级人类专业知识的水平。
为了应对这些风险,Anthropic 详细制定了其于 2023 年 9 月发布的负责任扩展政策(RSP),作为一项强有力的应对措施。RSP 要求根据 AI 功能的复杂程度提高安全性和安保措施。
RSP 框架旨在实现自适应性和迭代性,定期评估 AI 模型,以便及时完善安全协议。Anthropic 表示,它致力于维护和增强安全性,涵盖各种团队扩展,特别是在安全、可解释性和信任领域,确保为其 RSP 设定的严格安全标准做好准备。
Anthropic 认为,尽管 RSP 在人工智能行业的广泛采用主要是自愿的,但对于解决人工智能风险至关重要。
透明、有效的监管对于让社会相信人工智能公司会遵守安全承诺至关重要。然而,监管框架必须具有战略性,既能激励健全的安全实践,又不会带来不必要的负担。
Anthropic 设想的法规清晰、有针对性,并适应不断发展的技术格局,并认为这些法规对于实现降低风险和促进创新之间的平衡至关重要。
在美国,Anthropic 认为联邦立法可能是解决人工智能风险监管问题的最终答案——尽管如果联邦行动滞后,可能需要由国家主导的举措介入。世界各国制定的立法框架应允许标准化和相互认可,以支持全球人工智能安全议程,最大限度地降低不同地区遵守监管规定的成本。
此外,Anthropic 还回应了人们对实施监管的质疑——强调过于宽泛的以用例为中心的监管对具有多种应用的通用人工智能系统来说是低效的。相反,监管应该针对人工智能模型的基本属性和安全措施。
在涵盖广泛风险的同时,Anthropic 承认,一些直接威胁(如深度伪造)并不是其当前提案的重点,因为其他举措正在解决这些近期问题。
最后,Anthropic 强调制定法规以促进创新而不是扼杀创新的重要性。最初的合规负担虽然不可避免,但可以通过灵活且精心设计的安全测试将其最小化。适当的监管甚至可以通过保护知识产权免受内部和外部威胁来帮助维护国家利益和私营部门的创新。
通过关注实证测量的风险,Anthropic 计划打造一个既不偏袒也不偏袒开源或闭源模型的监管环境。目标依然很明确:通过严格但灵活的监管来管理前沿人工智能模型的重大风险。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/anthropic-hu-yu-dui-ren-gong-zhi-neng-jin-xing-jian-guan-yi