人工智能治理公司Credo AI推出了一个新平台,该平台与第三方人工智能运营和业务工具相结合,以更好地了解负责任的人工智能政策。
Credo AI 的 Integrations Hub 现已全面上市,它让企业客户能够将他们构建生成式 AI 应用程序的平台(如 Amazon Sagemaker、MLFlow 和 Microsoft Dynamics 365)连接到集中式治理平台。这些应用程序经常部署的平台(如 Asana、ServiceNow 或 Jira)也可以添加到 Integrations Hub。
这个想法是,从事 AI 应用程序的企业可以使用 Integrations Hub 连接到中央治理平台,例如 Credo AI 的治理平台。Integrations Hub 将从包含这些指标的应用程序中收集元数据,而无需上传证明安全和安保标准的文档。
Credo AI 表示,Integrations Hub 将直接连接现有的模型商店,然后自动上传到治理平台进行合规性检查。该中心还将引入用于治理目的的数据集。
Credo AI 创始人兼首席执行官 Navrina Singh 告诉 VentureBeat,集成中心旨在使 AI 治理(无论是遵循数据披露规则还是围绕 AI 使用的内部政策)从一开始就成为开发过程的一部分。
“我们合作的所有组织,主要是全球 2000 强企业,都在以非常快的速度采用人工智能,并引入了新型人工智能工具,”Singh 说道。“当我们纵观所有企业时,我们希望为他们实现的关键目标之一就是最大限度地利用他们的人工智能投资,并使治理变得非常容易,这样他们就不会再找借口说这很难做到。”
Credo AI 的 Integrations Hub 将包括与 Jira、ServiceNow、亚马逊的 SageMaker 和 Bedrock、Salesforce、MLFlow、Asana、Databricks、Microsoft Dynamics 365 和 Azure Machine Learning、Weights & Biases、Hugging Face 和 Collibra 的现成连接。任何其他集成都可以定制,但需额外付费。
初期治理
调查显示,负责任的人工智能和人工智能治理已成为许多公司的首要考虑因素,这通常涉及应用程序如何满足法规、道德考量和隐私检查。然而,这些调查也指出,很少有公司评估这些风险。
随着企业努力解决如何在生成式 AI 方面更加负责任的问题,为组织提供轻松找出风险和合规性问题的方法已成为许多公司的新业务。Credo AI 只是提供不同途径让负责任的 AI 更容易实现的公司之一。
IBM 的 Watsonx产品套件包括一个治理平台,让用户可以评估模型的准确性、偏差和合规性。Collibra还发布了一套围绕治理的AI 工具,用于创建工作流程来记录和监控 AI 程序。
Credo AI 确实会检查应用程序是否存在潜在的品牌风险,例如准确性。不过,该公司将其平台定位为一种手段,以满足当前有关自动化平台的法律以及任何可能出台的新法规。
尽管一直存在管理数据隐私和数据保留的政策,并且由于机器学习或数据规则,一些企业已经遵循这些政策,但围绕生成式人工智能的监管仍然很少。
Singh 表示,有些地区确实要求企业提供有关 AI 治理的报告。她提到了纽约市第 144 号法律,该法律禁止使用自动化工具进行就业决策。
“你必须收集某些技术证据,比如人口平等比率。Credo AI 会采用纽约市的这项法律并将其编纂成法典,以检查你的 AI Ops 系统,而且由于它与你的政策以及你建立人力资源系统的地方相关,我们可以收集这些元数据以满足法律的要求,”Singh 说。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/credo-ai-de-ji-cheng-zhong-xin-ke-shi-xian-ya-ma-xun-wei