Meta Platforms创建了其 Llama 人工智能模型的较小版本,可以在智能手机和平板电脑上运行,为数据中心以外的人工智能开辟了新的可能性。
该公司今天宣布推出其Llama 3.2 1B和3B 型号的压缩版本,其运行速度比早期版本快四倍,而占用的内存却不到早期版本的一半。根据 Meta 的测试,这些较小型号的性能几乎与较大型号相当。
Meta 如何让大型语言模型在手机上运行
这项进步使用了一种称为量化的压缩技术,它简化了支持 AI 模型的数学计算。Meta 结合了两种方法:使用 LoRA 适配器 (QLoRA) 的量化感知训练以保持准确性,以及使用SpinQuant来提高可移植性。
这项技术成果解决了一个关键问题:运行先进的人工智能时无需大量计算能力。到目前为止,复杂的人工智能模型需要数据中心和专用硬件。
在OnePlus 12 Android 手机上进行的测试表明,压缩后的模型体积缩小了 56%,占用的内存减少了 41%,同时处理文本的速度提高了一倍多。这些模型最多可以处理 8,000 个字符的文本,足以满足大多数移动应用的需求。
科技巨头竞相定义人工智能的移动未来
Meta 的发布加剧了科技巨头之间为控制 AI 在移动设备上的运行方式而展开的战略斗争。尽管谷歌和苹果对移动 AI 采取了谨慎、可控的方法——将其与操作系统紧密集成——但 Meta 的策略却截然不同。
通过开源这些压缩模型并与芯片制造商高通和联发科合作,Meta 绕过了传统的平台守门人。开发人员无需等待谷歌的Android 更新或苹果的iOS 功能即可构建 AI 应用程序。这一举措与移动应用程序的早期阶段如出一辙,当时开放平台极大地加速了创新。
与高通和联发科的合作意义重大。这两家公司为全球大多数 Android 手机提供支持,包括 Meta 认为具有增长潜力的新兴市场的设备。通过针对这些广泛使用的处理器优化其模型,Meta 确保其 AI 能够在不同价位的手机上高效运行,而不仅仅是高端设备。
Meta决定通过其Llama 网站和影响力日益增强的 AI 模型中心Hugging Face进行分发,表明 Meta 致力于在开发人员工作的地方接触他们。这种双重分发策略可以帮助 Meta 的压缩模型成为移动 AI 开发的事实标准,就像TensorFlow和PyTorch成为机器学习的标准一样。
口袋里的人工智能的未来
Meta 今天的声明表明人工智能正在发生更大转变:从集中式计算转向个人计算。虽然基于云的人工智能将继续处理复杂任务,但这些新模型表明,未来手机可以私密且快速地处理敏感信息。
时机很重要。科技公司在数据收集和人工智能透明度方面面临越来越大的压力。Meta 的方法——让这些工具开放并直接在手机上运行——解决了这两个问题。你的手机,而不是远程服务器,很快就能处理文档摘要、文本分析和创意写作等任务。
这反映了计算领域的其他重大转变。正如处理能力从大型机转移到个人电脑,计算能力从台式机转移到智能手机一样,人工智能似乎也准备好向个人设备过渡。Meta 认为,开发人员将接受这一变化,创建将移动应用的便利性与人工智能的智能相结合的应用程序。
成功并非板上钉钉。这些模型仍然需要功能强大的手机才能运行良好。开发人员必须权衡隐私的好处和云计算的原始能力。而 Meta 的竞争对手,尤其是苹果和谷歌,对手机上 AI 的未来有着自己的愿景。
但有一点是清楚的:人工智能正在从一部手机中摆脱数据中心的束缚。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/meta-zai-shou-ji-ai-jing-sai-zhong-ji-bai-gu-ge-he-ping-guo