Frontier AI 框架描述了 Meta 如何将 AI 模型分为高风险组和严重风险组

Meta发布了一个新的风险政策框架,概述了其计划如何评估和减轻新前沿 AI 模型带来的风险,以及何时停止开发、限制访问或不发布系统。
为了解决围绕人工智能日益增长的安全问题,Frontier AI Framework 描述了 Meta 如何将人工智能模型分为高风险和关键风险组,然后采取相应措施将相关风险降低到“可容忍水平”。
例如,严重风险被定义为能够唯一地实现所概述的威胁情景。高风险意味着该模型可以为威胁情景的执行提供显著的提升,但无法实现执行。
威胁情景包括高影响力生物武器的扩散,其能力相当于已知药剂,并通过大规模的长期欺诈和诈骗对个人或公司造成广泛的经济损失。
对于达到严重风险阈值的模型,Meta 将停止开发,将模型的访问权限限制为少数专家,并输入安全保护以防止黑客攻击或泄露,“只要技术上可行且商业上可行”。
对于高风险,它将限制访问并实施缓解措施以将风险降低到中等水平,从而该模型不会对威胁场景的执行提供显著的提升。
Meta 表示,风险评估过程涉及多学科参与,包括内部和“适当情况下”来自各个学科的外部专家以及来自多个学科的公司领导。
新框架仅与该公司最先进的、达到或超过当前能力的模型和系统有关。
Meta 表示:“我们希望分享我们目前开发先进人工智能系统的方法,不仅可以促进我们决策过程的透明度,还可以鼓励关于如何改进人工智能评估科学以及风险和收益量化的讨论和研究。”
其评估和降低风险的方法将随着时间的推移而发展和成熟。然而,它补充说,由于人工智能评估仍处于发展阶段,因此
Meta 表示,它计划专注于提高评估的稳健性和可靠性,包括努力确保其测试环境产生的结果能够反映该模型投入生产后的表现。
该公司还补充道:“我们开发和发布前沿人工智能的决策过程受到内部人工智能治理计划、风险阈值以及支撑这些计划的严格评估和缓解计划的指导。”
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/meta-ji-hua-xian-zhi-fa-bu-you-feng-xian-de-ren-gong-zhi