LLM
-
LLM新技术:控制CoT长度,优化推理,降低成本
一、引言 在人工智能领域,大型语言模型(LLM)通过“链式思考”(Chain of Thought,简称CoT)进行推理已成为最新一代模型的关键特征。这种推理过程涉及将复杂问题分解…
-
将人工智能带入实践:LinkedIn 结合 LLM、LangChain 和 Jupyter Notebooks 来提高快速工程水平
对于企业来说,找出正确的提示以从生成式 AI 模型中获得最佳结果并不总是一件容易的事。在某些组织中,这已经落到了新出现的提示工程师的职位上,但LinkedIn的情况并非如此。 该专…
-
随着代理 AI 编码工具市场加速发展,GitHub Copilot 预览代理模式
Agentic AI 如今在应用程序开发和编码等多个领域风靡一时。 今天, GitHub终于加入了代理 AI 阵营,推出了 GitHub Copilot 代理模式。开发中的代理 A…
-
Observo 的 AI 原生数据管道将嘈杂遥测减少了 70%,增强了企业安全性
人工智能热潮引发了数据爆炸式增长。人工智能模型需要大量数据集进行训练,它们所支持的工作负载(无论是内部工具还是面向客户的应用程序)正在生成大量遥测数据:日志、指标、跟踪等等。 即使…
-
OpenAI:延长模型“思考时间”有助于对抗新出现的网络漏洞
通常,开发人员专注于减少推理时间(即 AI 收到提示和提供答案之间的时间间隔),以便更快地获得洞察。 但谈到对抗鲁棒性,OpenAI 的研究人员表示:不要这么快下结论。…
-
超越 RAG:缓存增强生成如何降低较小工作负载的延迟和复杂性
检索增强生成 (RAG) 已成为定制大型语言模型 (LLM) 以处理定制信息的实际方法。然而,RAG 需要前期技术成本,而且速度可能很慢。现在,得益于长上下文 LLM 的进步,企业…
-
人工智能中的幻觉:葛兰素史克如何解决药物开发中的关键问题
生成式人工智能已成为许多行业的关键基础设施,医疗保健也不例外。然而,随着葛兰素史克等组织不断突破生成式人工智能所能实现的界限,它们面临着重大挑战——尤其是在可靠性方面。幻觉,即人工…
-
从意图到执行:微软如何将大型语言模型转变为行动导向型人工智能
大型语言模型 (LLM)改变了我们处理自然语言处理的方式。它们可以回答问题、编写代码和进行对话。然而,它们在处理实际任务时却力不从心。例如,LLM 可以指导您购买夹克,但不能为您下…
-
Google DeepMind 研究人员推出新基准以提高 LLM 真实性并减少幻觉
幻觉,即事实不准确的回答,继续困扰大型语言模型 (LLM)。当模型被赋予更复杂的任务,并且当用户寻求具体且高度详细的回答时,模型尤其会失效。 这是数据科学家一直努力克服的一个挑战…
-
Nvidia 发布了可分析视频的 AI 代理蓝图
今天,作为首席执行官黄仁勋 (Jensen Huang)在CES 2025开幕主题演讲的一部分, Nvidia推出了可分析视频的 AI 代理蓝图。 由 Metropolis 提供支…