Anthropic 的新 AI 模型可以控制你的电脑

Anthropic 的新 AI 模型可以控制你的电脑

去年春天,Anthropic在向投资者推介时表示,公司打算开发人工智能来驱动虚拟助理,让其能够独立进行研究、回复电子邮件和处理其他后台工作。该公司将此称为“人工智能自学的下一代算法”——该公司相信,如果一切按计划进行,未来某一天,该算法将使经济的很大一部分实现自动化。

虽然花了一段时间,但人工智能已经开始到来。

Anthropic 周二发布了其Claude 3.5 Sonnet模型的升级版,该模型可以理解任何桌面应用并与之交互。通过新的“计算机使用”API(目前处于公开测试阶段),该模型可以模仿按键、按钮点击和鼠标手势,本质上就是模拟坐在电脑前的人。

“我们训练 Claude 观察屏幕上发生的事情,然后使用可用的软件工具执行任务,”Anthropic 在分享的博客文章中写道。“当开发人员要求 Claude 使用一款计算机软件并授予其必要的访问权限时,Claude 会查看用户可见内容的屏幕截图,然后计算出需要垂直或水平移动光标多少像素才能点击到正确的位置。”

开发人员可以通过 Anthropic 的 API、 Amazon Bedrock和 Google Cloud 的Vertex AI平台试用 Computer Use 。不带Computer Use 的新 3.5 Sonnet正在推广到Claude 应用程序,并且与即将推出的 3.5 Sonnet 模型相比带来了各种性能改进。

自动化应用程序

能够在 PC 上自动执行任务的工具并不是什么新奇的想法。无数公司提供此类工具,从拥有数十年历史的 RPA 供应商到Relay、Induced AI和Automat等新兴公司。

在开发所谓“AI 代理”的竞争中,这个领域变得越来越拥挤。AI 代理仍然是一个定义不明确的术语,但它通常指能够自动化软件的 AI。

一些分析师表示,人工智能代理可以为企业提供一条更简单的途径,让他们将投入人工智能的数十亿美元变现。企业似乎也同意这一观点:根据 Capgemini 最近的一项调查,10% 的组织已经使用人工智能代理,82% 的组织将在未来三年内整合它们。

今年夏天, Salesforce 发布了关于其 AI 代理技术的引人注目的公告,而微软昨天则推出了用于构建 AI 代理的新工具。OpenAI 正在筹划自己的 AI 代理品牌,并将该技术视为迈向超级智能 AI 的一步。

Anthropic 将其 AI 代理概念称为“动作执行层”,让新的 3.5 Sonnet 可以执行桌面级命令。由于其具有浏览网页的能力(这不是 AI 模型的第一次,但对于 Anthropic 来说却是第一次),3.5 Sonnet 可以使用任何网站和任何应用程序。

Anthropic 的新 AI 模型可以控制你的电脑

Anthropic 的一位发言人表示:“人类通过提供指导 Claude 行动的具体提示来保持控制,例如‘使用我的电脑和网上的数据来填写此表格’。”“人们根据需要启用访问权限和限制访问权限。Claude 将用户的提示分解为计算机命令(例如移动光标、点击、打字)来完成特定任务。”

软件开发平台 Replit 使用新 3.5 Sonnet 模型的早期版本创建了一个“自主验证器”,可以在应用程序构建时对其进行评估。与此同时,Canva 表示,它正在探索新模型如何支持设计和编辑过程。

但这与其他 AI 代理有何不同?这是一个合理的问题。消费电子初创公司Rabbit正在构建一个网络代理,可以执行诸如在线购买电影票之类的操作;最近被亚马逊收购的Adept训练模型浏览网站和导航软件;而Twin Labs正在使用现成的模型(包括 OpenAI 的GPT-4o)来自动化桌面流程。

Anthropic 声称,根据 SWE-bench Verified 基准测试,新的 3.5 Sonnet 是一个更强大、更稳健的模型,在编码任务上的表现甚至比 OpenAI 的旗舰o1还要好。尽管没有经过明确的训练,但升级后的 3.5 Sonnet 在遇到障碍时会自我纠正并重试任务,并且可以朝着需要数十或数百步的目标努力。

Anthropic 的新 AI 模型可以控制你的电脑

但现在还不要解雇你的秘书。

在一项旨在测试人工智能代理协助完成机票预订任务(如修改航班预订)的能力的评估中,新款 3.5 Sonnet 成功完成了不到一半的任务。在另一项涉及启动退货等任务的测试中,3.5 Sonnet 大约有三分之一的时间失败。

Anthropic 承认,升级后的 3.5 Sonnet 在滚动和缩放等基本操作上存在困难,而且由于其截屏和拼凑方式,可能会错过“短暂”的操作和通知。

Anthropic 在帖子中写道:“Claude 的计算机使用仍然很慢,而且经常容易出错。我们鼓励开发人员从低风险任务开始探索。”

冒险的生意

但新款 3.5 Sonnet 的性能是否足以造成危险?有可能。

最近的一项研究发现,不具备使用桌面应用程序能力的模型(如 OpenAI 的 GPT-4o)在使用越狱技术“攻击”时,愿意从事有害的“多步骤代理行为”,例如从暗网上的某人那里订购假护照。研究人员表示,即使对于受到过滤器和安全措施保护的模型,越狱也能以很高的成功率执行有害任务。

可以想象,具有桌面访问权限的模型可能会造成更大的破坏——例如,利用应用程序漏洞泄露个人信息(或以纯文本形式存储聊天记录)。除了可以使用的软件手段外,该模型的在线和应用程序连接还可能为恶意越狱者打开通道。

Anthropic 并不否认发布新款 3.5 Sonnet 存在风险。但该公司辩称,观察该模型在野外使用情况的好处最终大于这种风险。

该公司写道:“我们认为,让当今更有限、相对更安全的型号访问计算机要好得多。”“这意味着我们可以开始观察和学习在这个较低级别出现的任何潜在问题,逐步同时建立计算机使用和安全缓解措施。”

Anthropic 的新 AI 模型可以控制你的电脑

Anthropic 还表示,它已采取措施阻止滥用,例如不根据用户的屏幕截图和提示训练新的 3.5 Sonnet,并阻止模型在训练期间访问网络。该公司表示,它开发了分类器来“引导”3.5 Sonnet 远离被视为高风险的行为,例如在社交媒体上发帖、创建账户和与政府网站互动。

随着美国大选临近,Anthropic 表示其重点是减轻与选举相关的模型滥用。美国人工智能安全研究所和英国安全研究所是两个独立但结盟的政府机构,致力于评估人工智能模型风险,它们在部署新版 3.5 Sonnet 之前对其进行了测试。

Anthropic说它有能力“在必要时”限制对其他网站和功能的访问,例如,为了防止垃圾邮件、欺诈和错误信息。为了安全起见,该公司会保留 Computer Use 捕获的所有屏幕截图至少 30 天——这个保留期可能会让一些开发者感到恐慌。

我们询问 Anthropic,在什么情况下,如果第三方 (例如执法部门) 要求,他们会将截图交给第三方。一位发言人表示,公司将“遵从有效的法律程序,遵守数据请求”。

“没有万无一失的方法,我们将不断评估和迭代我们的安全措施,以平衡 Claude 的功能和负责任的使用,”Anthropic 表示。“那些使用 Claude 计算机版本的人应该采取相关预防措施,以尽量减少此类风险,包括将 Claude 与计算机上特别敏感的数据隔离开来。”

希望这足以防止最坏的情况发生。

更便宜的型号

今天的头条新闻可能是升级版的 3.5 Sonnet 车型,但 Anthropic 还表示,其 Claude 系列中最便宜、最高效的车型 Haiku 的升级版即将上市。

Claude 3.5 Haiku 将于未来几周上市,其性能将在某些基准测试中与 Claude 3 Opus(曾是 Anthropic 的最先进型号)相媲美,成本相同,速度“大致相同

Anthropic 在一篇博客文章中写道:“由于延迟低、指令遵循能力增强、工具使用更准确,Claude 3.5 Haiku 非常适合面向用户的产品、专门的子代理任务,以及从海量数据(如购买历史、定价或库存数据)中生成个性化体验 ”

3.5 Haiku 最初将作为纯文本模型提供,随后将作为可以分析文本和图像的多模式包的一部分提供。

Anthropic 的新 AI 模型可以控制你的电脑

那么一旦 3.5 Haiku 推出,是否还有理由使用 3 Opus?Anthropic 于 6 月份透露了 3 Opus 的后续产品 3.5 Opus 的情况如何?

Anthropic 发言人表示:“Claude 3 系列的所有型号都有各自的客户用途。Claude 3.5 Opus 已列入我们的规划中,我们一定会尽快分享更多信息。”

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/anthropic-de-xin-ai-mo-xing-ke-yi-kong-zhi-ni-de-dian-nao

Like (0)
王 浩然的头像王 浩然作者
Previous 2024年10月24日
Next 2024年10月24日

相关推荐

发表回复

Please Login to Comment