Endor Labs已开始根据 AI 模型的安全性、受欢迎程度、质量和活跃度对其进行评分。
这一独特功能被称为“AI 模型的 Endor 分数”,旨在通过提供直接的分数来简化识别 Hugging Face(一个共享大型语言模型 (LLM)、机器学习模型和其他开源 AI 模型和数据集的平台)上目前最安全的开源 AI 模型的过程。
这一消息发布之际,开发人员越来越多地转向 Hugging Face 等平台获取现成的 AI 模型,这与早期随时可用的开源软件 (OSS) 的情况如出一辙。这一新版本通过使开发人员能够“从头开始”使用 AI 模型来改善AI 治理,而这一目标迄今为止一直难以实现。
Endor Labs 联合创始人兼首席执行官 Varun Badhwar 表示:“我们的使命一直是保护您的代码所依赖的一切,而 AI 模型是这项关键任务的下一个重要前沿。
“每个组织都在试验人工智能模型,无论是为特定应用程序提供支持,还是构建整个基于人工智能的业务。安全性必须跟上步伐,这是一个难得的机会,可以从头开始,避免日后的风险和高昂的维护成本。”
Endor Labs 创始工程师 George Apostolopoulos 补充道:“现在每个人都在试验 AI 模型。一些团队正在建立全新的基于 AI 的业务,而其他团队则在寻找方法将‘由 AI 驱动’的标签贴在他们的产品上。有一件事是肯定的,你的开发人员正在研究 AI 模型。”
然而,这种便利并非没有风险。Apostolopoulos 警告称,当前的形势就像“狂野西部”,人们会抓住适合自己需求的模型,而不考虑潜在的漏洞。
Endor Labs 的方法将 AI 模型视为软件供应链中的依赖项
Apostolopoulos 表示:“Endor Labs 的使命是‘保护代码所依赖的一切’。”这种观点使组织能够将类似的风险评估方法应用于 AI 模型,就像它们对其他开源组件所做的那样。
Endor 的 AI 模型评分工具重点关注几个关键风险领域:
- 安全漏洞:预先训练的模型可能在模型权重中隐藏恶意代码或漏洞,当集成到组织环境中时可能会导致安全漏洞。
- 法律和许可问题:遵守许可条款至关重要,尤其是考虑到人工智能模型及其训练集的复杂谱系。
- 操作风险:对预先训练模型的依赖会创建一个复杂的图表,其管理和保护起来可能很困难。
为了解决这些问题,Endor Labs 的评估工具对 Hugging Face 上的 AI 模型进行了 50 次开箱即用的检查。系统根据维护者数量、企业赞助、发布频率和已知漏洞等因素生成“Endor 分数”。
该系统对 AI 模型进行评分的积极因素包括使用安全的权重格式、存在许可信息以及较高的下载量和参与度指标。消极因素包括文档不完整、缺乏性能数据以及使用不安全的权重格式。
Endor Scores 的一个主要特点是其用户友好型方法。开发人员不需要知道具体的模型名称;他们可以从一般问题开始搜索,例如“我可以使用哪些模型来对情绪进行分类?”或“Meta 中最受欢迎的模型是什么?”然后,该工具会提供清晰的分数,对每个模型的正面和负面方面进行排名,让开发人员能够根据自己的需求选择最合适的选项。
“您的团队每天都会被问及 AI,他们会寻找可以用来加速创新的模型,”Apostolopoulos 指出。“使用 Endor Labs 评估开源 AI 模型可以帮助您确保您使用的模型能够按照您的预期运行,并且可以安全使用。”
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/wei-ai-mo-xing-ping-fen-endor-labs-tui-chu-ping-gu-gong-ju