📄️ LLM 代理
基于 LLM 的代理,以下简称为 LLM 代理,涉及使用将 LLM 与规划和记忆等关键模块相结合的架构来执行复杂任务的LLM应用。在构建LLM代理时,LLM充当主要控制器或“大脑”,控制完成任务或用户请求所需的操作流程。LLM代理可能需要规划、记忆和工具使用等关键模块。
📄️ 检索增强生成(RAG)用于LLMs
在处理LLMs时存在许多挑战,如领域知识差距、事实性问题和幻觉。检索增强生成(RAG)通过增加LLMs与外部知识(如数据库)来解决其中一些问题。RAG在知识密集型场景或需要不断更新知识的领域特定应用中特别有用。与其他方法相比 ,RAG的一个关键优势在于LLM不需要为特定任务重新训练。RAG最近在对话代理中的应用使其变得流行起来。
📄️ LLM 推理
在过去几年里,大型语言模型(LLMs)在各种任务中取得了显著进展。最近,当规模足够大时,LLMs已经展现出展示推理能力的潜力。不同类型的推理对智能至关重要,但目前还不完全了解AI模型如何学习和利用这种能力来解决复杂问题。这是许多研究实验室极为关注和投资的领域。
📄️ RAG 模型的可靠性有多高?
这篇由Wu等人(2024)撰写的新论文旨在量化 RAG 模型和 LLMs 内部先验之间的博弈。
📄️ LLM 在上下文中的回忆受提示影响
这篇由 Machlab 和 Battle (2024) 撰写的新论文分析了使用几种“大海捞针”测试来评估不同 LLM 的上下文回忆表现。
📄️ 通过 RAG 减少结构化输出中的虚构现象
研究人员在 ServiceNow 公司分享了一篇新论文,讨论了如何部署用于结构化输出任务的高效 RAG 系统。
📄️ 语言模型合成数据的最佳实践和经验教训
这篇论文由 Google DeepMind 和其他合作者共同发表,提供了关于语言模型合成数据的最佳实践和经验教训的概述。
📄️ 用中间修订和搜索进行LLMs推理
这项由Chi等人(2024)完成的工作提出了一种适用于可分解成组件的任务的一般推理和搜索方法。
📄️ 高效的无限上下文变压器
Google 发表的一篇新的论文将压缩记忆集成到传统的点积注意力层中。
📄️ LM引导的思维链
李等人 (2024) 的一篇新论文提出使用小语言模型改进LLM中的推理能力。