于 OpenAI 的影响,本周人工智能新闻异常繁忙,包括首席执行官 Sam Altman 发表的一篇有争议的博客文章、高级语音模式的广泛推出、5GW数据中心的传闻、重大员工变动以及重大重组计划。
但人工智能领域的其他领域却不跟风,他们各行其是,每分钟都在推出新的人工智能模型和研究成果。以下是过去一周其他一些值得关注的人工智能新闻的汇总。
Google Gemini 更新
周二,谷歌宣布更新其 Gemini 模型阵容,包括发布两款基于过去版本迭代的全新生产就绪模型:Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002。该公司报告称,整体质量有所提高,数学、长上下文处理和视觉任务方面取得了显著进步。谷歌声称,MMLU -Pro基准测试的性能提高了 7%,数学相关任务的性能提高了 20%。但正如你所知,如果你已经阅读 Ars Technica 一段时间了,你就会发现,人工智能基准测试通常并不像我们希望的那样有用。
随着模型升级,谷歌还大幅降低了 Gemini 1.5 Pro 的价格,对于 128,000 个代币以下的提示,输入代币成本降低了 64%,输出代币成本降低了 52%。正如人工智能研究员 Simon Willison在他的博客中指出的那样,“相比之下,GPT-4o 目前每百万代币输入 5 美元,每月输出 15 美元,而 Claude 3.5 Sonnet 的输入为 3 美元/月,输出为 15 美元/月。Gemini 1.5 Pro 已经是 Frontier 模型中最便宜的,现在甚至更便宜了。”
谷歌还提高了速率限制,Gemini 1.5 Flash 现在支持每分钟 2,000 个请求,而 Gemini 1.5 Pro 每分钟可处理 1,000 个请求。谷歌报告称,与之前的版本相比,最新型号的输出速度提高了两倍,延迟降低了三倍。这些变化可能使开发人员使用 Gemini 构建应用程序比以前更轻松、更具成本效益。
Meta 推出 Llama 3.2
周三,Meta宣布发布 Llama 3.2,这是对其开放权重 AI 模型系列的重大更新,我们过去曾对此进行过广泛报道。新版本包括具有视觉功能的大型语言模型 (LLM),参数大小为 110 亿和 900 亿,以及专为边缘和移动设备设计的 1B 和 3B 参数的轻量级纯文本模型。Meta 声称,视觉模型在图像识别和视觉理解任务上可与领先的闭源模型相媲美,而较小的模型据称在各种基于文本的任务上都优于类似规模的竞争对手。
Willison 对一些较小的 3.2 模型进行了一些实验,并报告了与这些模型大小相当的令人印象深刻的结果。AI 研究员 Ethan Mollick展示了如何使用一款名为 PocketPal 的应用程序在他的 iPhone 上运行 Llama 3.2。
Meta 还推出了第一个官方“ Llama Stack ”发行版,旨在简化跨不同环境的开发和部署。与之前的版本一样,Meta 提供模型免费下载,但有许可限制。新模型支持最多 128,000 个令牌的长上下文窗口。
谷歌的 AlphaChip AI 加速芯片设计
周四,谷歌 DeepMind宣布了人工智能驱动的电子芯片设计领域取得的重大进展——AlphaChip。它始于 2020 年的一个研究项目,现在是一种用于设计芯片布局的强化学习方法。据报道,谷歌在其最近三代张量处理单元(TPU) 中使用 AlphaChip 创建了“超人芯片布局”,TPU 是类似于 GPU 的芯片,旨在加速人工智能操作。谷歌声称,AlphaChip 可以在数小时内生成高质量的芯片布局,而人类则需要数周或数月的时间。(据报道,Nvidia也一直在使用人工智能来帮助设计其芯片。)
值得注意的是,谷歌还在 GitHub 上发布了AlphaChip 的预训练检查点,与公众分享模型权重。该公司报告称,AlphaChip 的影响已经超出了谷歌的范围,联发科等芯片设计公司也采用并基于该技术打造芯片。据谷歌称,AlphaChip 引发了芯片设计人工智能领域的新研究,有可能优化从计算机架构到制造的芯片设计周期的每个阶段。
以上并不是全部,但这些都是一些重要亮点。目前,人工智能行业没有放缓的迹象,我们拭目以待下周的情况。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/sui-zhe-alphachip-de-xing-qi-gu-ge-he-meta-geng-xin-le-ta