论文
以下是最新关于大型语言模型(LLMs)提示工程的论文(按发布日期排序)。我们每天/每周更新论文列表。
概览
- The Prompt Report: 提示技术的系统调查 (在新标签页中打开) (2024年6月)
- 提示设计与工程:介绍与高级方法 (在新标签页中打开) (2024年1月)
- 大型语言模型中的幻觉研究:原理、分类、挑战与开放性问题 (在新标签页中打开) (2023年11月)
- 从强化学习的角度看RLHF、提示及其他 (在新标签页中打开) (2023年10月)
- Few-shot Fine-tuning vs. In-context Learning: 公平比较与评估 (在新标签页中打开) (2023年5月)
- 通过提示工程破解ChatGPT:一项实证研究 (在新标签页中打开) (2023年5月)
- 实践中利用LLM的力量:ChatGPT及其他模型的调查 (在新标签页中打开) (2023年4月)
- 工具学习与基础模型 (在新标签页中打开) (2023年4月)
- 生成式AI的一小步,AGI的一大步:AIGC时代ChatGPT的全面调查 (在新标签页中打开) (2023年4月)
- 2017年至2023年大型语言模型研究的文献计量学综述 (在新标签页中打开) (2023年4月)
- 大型语言模型调查 (在新标签页中打开) (2023年4月)
- 自然语言推理,一项调查 (在新标签页中打开) (2023年3月)
- 增强语言模型:一项调查 (在新标签页中打开) (2023年2月)
- 上下文学习调查 (在新标签页中打开) (2022年12月)
- Towards Reasoning in Large Language Models: A Survey (在新标签页中打开) (2022年12月)
- Reasoning with Language Model Prompting: A Survey (在新标签页中打开) (2022年12月)
- 大型语言模型的涌现能力 (在新标签页中打开) (2022年6月)
- 文本到图像生成的提示修饰符分类 (在新标签页中打开) (2022年4月)
- 预训练、提示和预测:自然语言处理中提示方法的系统调查 (在新标签页中打开) (2021年7月)
方法
- 通过逻辑增强大型语言模型中的零样本链式推理 (在新标签页中打开) (2024年2月)
- 原则性指令是您质疑LLaMA-1/2、GPT-3.5/4所需的全部 (在新标签页中打开) (2023年12月)
- 漫步记忆迷宫:通过互动阅读超越上下文限制 (在新标签页中打开) (2023年10月)
- 大型语言模型作为类比推理者 (在新标签页中打开) (2023年10月)
- LLMLingua: 压缩提示以加速大型语言模型的推理 (在新标签页中打开) (2023年10月)
- Query-Dependent Prompt Evaluation and Optimization with Offline Inverse RL (在新标签页中打开) (2023年9月)
- Chain-of-Verification Reduces Hallucination in Large Language Models (在新标签页中打开) (2023年9月)
- 将大型语言模型与进化算法结合产生强大的提示优化器 (在新标签页中打开) (2023年9月)
- 从稀疏到密集:使用密度链提示的GPT-4摘要 (在新标签页中打开) (2023年9月)
- 重新阅读提高语言模型的推理能力 (在新标签页中打开) (2023年9月)
- Graph of Thoughts: 使用大型语言模型解决复杂问题 (在新标签页中打开) (2023年8月)
- Skeleton-of-Thought: 大型语言模型可以进行并行解码 (在新标签页中打开) (2023年7月)
- Focused Prefix Tuning for Controllable Text Generation (在新标签页中打开) (2023年6月)
- 探索预训练语言模型的彩票提示 (在新标签页中打开) (2023年5月)
- 不太可能的头脑风暴:使用语言模型生成替代假设 (在新标签页中打开) (2023年5月)
- 让我们一步步验证 (在新标签页中打开) (2023年5月)
- 提示调优的普遍性和局限性 (在新标签页中打开) (2023年5月)
- MultiTool-CoT: GPT-3 可以使用多个外部工具进行链式思维提示 (在新标签页中打开) (2023年5月)
- PEARL: 提示大型语言模型在长文档上规划和执行行动 (在新标签页中打开) (2023年5月)
- Reasoning with Language Model is Planning with World Model (在新标签页中打开) (2023年5月)
- Self-Critique Prompting with Large Language Models for Inductive Instructions (在新标签页中打开) (2023年5月)
- Better Zero-Shot Reasoning with Self-Adaptive Prompting (在新标签页中打开) (2023年5月)
- 分层提示辅助大型语言模型进行网络导航 (在新标签页中打开) (2023年5月)
- 交互式自然语言处理 (在新标签页中打开) (2023年5月)
- 我们可以通过上下文学习编辑事实知识吗? (在新标签页中打开) (2023年5月)
- 大语言模型的上下文学习解释为核回归 (在新标签页中打开) (2023年5月)
- 计划与解决提示:通过大型语言模型改进零样本链式思维推理 (在新标签页中打开) (2023年5月)
- 大型语言模型中的元上下文学习 (在新标签页中打开) (2023年5月)
- 让我们逐步采样:用于高效推理的自适应一致性 (在新标签页中打开) (2023年5月)
- 语言模型的事后解释可以改进语言模型 (在新标签页中打开) (2023年5月)
- 压缩,然后提示:通过可转移提示改进LLM推理的准确性与效率权衡 (在新标签页中打开) (2023年5月)
- TreePrompt: 学习组合树提示以实现可解释的视觉定位 (在新标签页中打开) (2023年5月)
- TELeR: 用于基准测试复杂任务的LLM提示的通用分类法 (在新标签页中打开) (2023年5月)
- 通过动态上下文学习实现高效提示 (在新标签页中打开) (2023年5月)
- 网络可以成为您改进大型语言模型的宝库 (在新标签页中打开) (2023年5月)
- 平坦度感知提示选择提高准确性和样本效率 (在新标签页中打开) (2023年5月)
- 思维之树:利用大型语言模型进行深思熟虑的问题解决 (在新标签页中打开) (2023年5月)
- ZeroPrompt: 流式声学编码器是零样本掩码语言模型 (在新标签页中打开) (2023年5月)
- Chain-of-Symbol Prompting Elicits Planning in Large Langauge Models (在新标签页中打开) (2023年5月)
- CooK: 通过模块化和协作知识赋予通用语言模型能力 (在新标签页中打开) (2023年5月)
- What In-Context Learning "Learns" In-Context: Disentangling Task Recognition and Task Learning (在新标签页中打开) (2023年5月)
- 重新提示:通过吉布斯采样自动推理思维链提示 (在新标签页中打开) (2023年5月)
- Satisfiability-Aided Language Models Using Declarative Prompting (在新标签页中打开) (2023年5月)
- 预训练以在上下文中学习 (在新标签页中打开) (2023年5月)
- Boosted Prompt Ensembles for Large Language Models (在新标签页中打开) (2023年4月)
- 全局提示单元:一个用于有效提示的便携式控制模块 (在新标签页中打开) (2023年4月)
- 为什么要逐步思考?推理源于经验的局部性 (在新标签页中打开) (2023年4月)
- 重新审视自动提示:我们真的做得更好了吗? (在新标签页中打开) (2023年4月)
- REFINER: 中间表示的推理反馈 (在新标签页中打开) (2023年4月)
- Reflexion: 具有动态记忆和自我反思能力的自主代理 (在新标签页中打开) (2023年3月)
- CAMEL: 用于大规模语言模型社会“思维”探索的通信代理 (在新标签页中打开) (2023年3月)
- Self-Refine: 自我反馈的迭代优化 (在新标签页中打开) (2023年3月)
- kNN Prompting: 超越上下文学习的无校准最近邻推理 (在新标签页中打开) (2023年3月)
- 视觉语言提示调优与知识引导的上下文优化 (在新标签页中打开) (2023年3月)
- 公平性引导的少样本提示用于大型语言模型 (在新标签页中打开) (2023年3月)
- Context-faithful Prompting for Large Language Models (在新标签页中打开) (2023年3月)
- Is Prompt All You Need? No. A Comprehensive and Broader View of Instruction Learning (在新标签页中打开) (2023年3月)
- UPRISE: 通用提示检索以改进零样本评估 (在新标签页中打开) (2023年3月)
- 通过提示进行模型调优使NLP模型具有对抗鲁棒性 (在新标签页中打开) (2023年3月)
- 知识图谱迁移的结构预训练和提示调优 (在新标签页中打开) (2023年3月)
- CoTEVer: 用于解释验证的思维链提示注释工具包 (在新标签页中打开) (2023年3月)
- 更大的语言模型以不同的方式进行上下文学习 (在新标签页中打开) (2023年3月)
- OpenICL: 一个用于上下文学习的开源框架 (在新标签页中打开) (2023年3月)
- 动态提示:一个统一的提示调优框架 (在新标签页中打开) (2023年3月)
- ART: 大型语言模型的自动多步推理和工具使用 (在新标签页中打开) (2023年3月)
- 多任务提示调优实现参数高效迁移学习 (在新标签页中打开) (2023年3月)
- 数据增强在有限数据下对前缀调优的有效性 (在新标签页中打开) (2023年3月)
- 用于可控数据生成的软提示混合 (在新标签页中打开) (2023年3月)
- Prompt, Generate, then Cache: Cascade of Foundation Models makes Strong Few-shot Learners (在新标签页中打开) (2023年3月)
- GPT-3.5 对前代模型的鲁棒性如何?语言理解任务的综合研究 (在新标签页中打开) (2023年3月)
- ChatGPT 也能理解吗?ChatGPT 与微调 BERT 的比较研究 (在新标签页中打开) (2023年2月)
- EvoPrompting: 用于代码级神经架构搜索的语言模型 (在新标签页中打开) (2023年2月)
- 上下文指令学习 (在新标签页中打开) (2023年2月)
- Chain of Hindsight Aligns Language Models with Feedback (在新标签页中打开) (2023年2月)
- 语言并非全部:将感知与语言模型对齐 (在新标签页中打开) (2023年2月)
- 自动提示增强与选择:基于标注数据的思维链 (在新标签页中打开) (2023年2月)
- Active Prompting with Chain-of-Thought for Large Language Models (在新标签页中打开) (2023年2月)
- 超出你的预期:对应用集成大型语言模型的新型提示注入威胁的全面分析 (在新标签页中打开) (2023年2月)
- A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT (在新标签页中打开) (2023年2月)
- 引导大型语言模型通过定向刺激提示 (在新标签页中打开) (2023年2月)
- 上下文学习如何帮助提示调优? (在新标签页中打开) (2023年2月)
- 用于语言模型半监督学习的可扩展提示生成 (在新标签页中打开) (2023年2月)
- 通过提示约束限制大型语言模型在开放文本生成中的能力 (在新标签页中打开) (2023年2月)
- À-la-carte Prompt Tuning (APT): 通过可组合提示结合不同数据 (在新标签页中打开) (2023年2月)
- GraphPrompt: 统一图神经网络的预训练和下游任务 (在新标签页中打开) (2023年2月)
- 大型语言模型的道德自我修正能力 (在新标签页中打开) (2023年2月)
- SwitchPrompt: 学习领域特定的门控软提示用于低资源领域的分类 (在新标签页中打开) (2023年2月)
- 评估离散提示的鲁棒性 (在新标签页中打开) (2023年2月)
- Compositional Exemplars for In-context Learning (在新标签页中打开) (2023年2月)
- 硬提示变得简单:基于梯度的离散优化用于提示调优和发现 (在新标签页中打开) (2023年2月)
- 多模态链式思维推理在语言模型中的应用 (在新标签页中打开) (2023年2月)
- 大型语言模型容易被无关上下文分散注意力 (在新标签页中打开) (2023年2月)
- Synthetic Prompting: 为大语言模型生成思维链演示 (在新标签页中打开) (2023年2月)
- 渐进式提示:语言模型的持续学习 (在新标签页中打开) (2023年1月)
- 批量提示:使用LLM API进行高效推理 (在新标签页中打开) (2023年1月)
- Demonstrate-Search-Predict: 结合检索和语言模型进行知识密集型NLP (在新标签页中打开) (2022年12月)
- 再想一想,我们不要一步一步地思考!零样本推理中的偏见和毒性 (在新标签页中打开) (2022年12月)
- 宪法AI:来自AI反馈的无害性 (在新标签页中打开) (2022年12月)
- 连续提示以分解复杂问题 (在新标签页中打开) (2022年12月)
- 大型语言模型是具有自我验证能力的推理者 (在新标签页中打开) (2022年12月)
- 使用模型编写的评估发现语言模型行为 (在新标签页中打开) (2022年12月)
- 结构化提示:将上下文学习扩展到1,000个示例 (在新标签页中打开) (2022年12月)
- PAL: 程序辅助语言模型 (在新标签页中打开) (2022年11月)
- 大型语言模型是人类级别的提示工程师 (在新标签页中打开) (2022年11月)
- 忽略之前的提示:语言模型的攻击技术 (在新标签页中打开) (2022年11月)
- 机器生成文本:威胁模型和检测方法的全面调查 (在新标签页中打开) (2022年11月)
- 通过上下文学习教授算法推理 (在新标签页中打开) (2022年11月)
- 通过自然语言推理增强预训练语言模型的自一致性和性能 (在新标签页中打开) (2022年11月)
- Ask Me Anything: 一个简单的语言模型提示策略 (在新标签页中打开) (2022年10月)
- Recitation-Augmented Language Models (在新标签页中打开) (2022年10月)
- ReAct: 语言模型中的推理与行动协同 (在新标签页中打开) (2022年10月)
- Prompting GPT-3 To Be Reliable (在新标签页中打开) (2022年10月)
- 分解提示:解决复杂任务的模块化方法 (在新标签页中打开) (2022年10月)
- 大型语言模型中的自动思维链提示 (在新标签页中打开) (2022年10月)
- 语言模型是贪婪的推理者:对思维链的系统形式分析 (在新标签页中打开) (2022年10月)
- 通过手工制作的对抗样本评估预训练语言模型的易受攻击性 (在新标签页中打开) (2022年9月)
- 通过策略梯度进行动态提示学习以实现半结构化数学推理 (在新标签页中打开) (2022年9月)
- Promptagator: 从8个示例中进行少样本密集检索 (在新标签页中打开) (2022年9月)
- Atlas: 使用检索增强语言模型进行少样本学习 (在新标签页中打开) (2022年11月)
- DocPrompting: 通过检索文档生成代码 (在新标签页中打开) (2022年7月)
- 关于使语言模型成为更好的推理者的进展 (在新标签页中打开) (2022年6月)
- 大型语言模型是零样本推理者 (在新标签页中打开) (2022年5月)
- Maieutic Prompting: 逻辑一致性与递归解释的推理 (在新标签页中打开) (2022年5月)
- MRKL系统:一种模块化、神经符号架构,结合了大型语言模型、外部知识源和离散推理 (在新标签页中打开) (2022年5月)
- PPT: 预训练提示调优用于少样本学习 (在新标签页中打开) (Mqy 2022)
- 基于生成提示推理的毒性检测 (在新标签页中打开) (2022年5月)
- 学习迁移提示用于文本生成 (在新标签页中打开) (2022年5月)
- 文本推理中少样本提示解释的不可靠性 (在新标签页中打开) (2022年5月)
- 文本到图像生成的提示修饰符分类 (在新标签页中打开) (2022年4月)
- PromptChainer: 通过可视化编程链接大型语言模型提示 (在新标签页中打开) (2022年3月)
- 自我一致性提高了语言模型中的思维链推理 (在新标签页中打开) (2022年3月)
- 训练语言模型以遵循人类反馈的指令 (在新标签页中打开)
- 重新思考演示的作用:什么使得上下文学习有效? (在新标签页中打开) (2022年2月)
- Chain of Thought Prompting Elicits Reasoning in Large Language Models (在新标签页中打开) (2022年1月)
- 展示你的工作:使用语言模型进行中间计算的草稿本 (在新标签页中打开) (2021年11月)
- AI Chains: 通过链接大型语言模型提示实现透明和可控的人机交互 (在新标签页中打开) (2021年10月)
- 生成知识提示用于常识推理 (在新标签页中打开) (2021年10月)
- 多任务提示训练实现零样本任务泛化 (在新标签页中打开) (2021年10月)
- 将教学提示重新构建为GPTk的语言 (在新标签页中打开) (2021年9月)
- 设计指南:文本到图像生成模型的提示工程 (在新标签页中打开) (2021年9月)
- Making Pre-trained Language Models Better Few-shot Learners (在新标签页中打开) (2021年8月)
- Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity (在新标签页中打开) (2021年4月)
- BERTese: 学习与BERT对话 (在新标签页中打开) (2021年4月)
- 参数高效提示调整的规模力量 (在新标签页中打开) (2021年4月)
- Prompt Programming for Large Language Models: Beyond the Few-Shot Paradigm (在新标签页中打开) (2021年2月)
- 使用前校准:提高语言模型的少样本性能 (在新标签页中打开) (2021年2月)
- Prefix-Tuning: 优化连续提示以进行生成 (在新标签页中打开) (2021年1月)
- 学习从任务描述生成特定任务的适配器 (在新标签页中打开) (2021年1月)
- Making Pre-trained Language Models Better Few-shot Learners (在新标签页中打开) (2020年12月)
- 从任务描述中学习 (在新标签页中打开) (2020年11月)
- AutoPrompt: 使用自动生成的提示从语言模型中引出知识 (在新标签页中打开) (2020年10月)
- 语言模型是少样本学习者 (在新标签页中打开) (2020年5月)
- 我们如何知道语言模型知道什么? (在新标签页中打开) (2020年7月)
- 神经语言模型的缩放定律 (在新标签页中打开) (2020年1月)
应用程序
- PromptRE: 基于提示的数据编程的弱监督文档级关系抽取 (在新标签页中打开) (2023年10月)
- 使用思维链提示大型语言模型进行少样本知识库问题生成 (在新标签页中打开) (2023年10月)
- 谁写的以及为什么?提示大型语言模型进行作者验证 (在新标签页中打开) (2023年10月)
- Promptor: 一个用于智能文本输入技术的对话式和自主提示生成代理 (在新标签页中打开) (2023年10月)
- 思想传播:一种使用大型语言模型进行复杂推理的类比方法 (在新标签页中打开) (2023年10月)
- 从稀疏到密集:使用密度链提示的GPT-4摘要 (在新标签页中打开) (2023年9月)
- 自学优化器(STOP):递归自我改进的代码生成(在新标签页中打开)(2023年10月)
- 说话前先思考:使用暂停标记训练语言模型 (在新标签页中打开) (2023年10月)
- (动态) 提示可能是修复压缩LLMs所需的全部 (在新标签页中打开) (2023年10月)
- 大型语言模型中的上下文学习:基于神经科学的表示分析 (在新标签页中打开) (2023年9月)
- 理解从重复中进行上下文学习 (在新标签页中打开) (2023年9月)
- 通过思维链提示研究大型语言模型在反思评估方法中的有效性 (在新标签页中打开) (2023年9月)
- 自动提示重写用于个性化文本生成 (在新标签页中打开) (2023年9月)
- Efficient Streaming Language Models with Attention Sinks (在新标签页中打开) (2023年9月)
- LMMs的黎明:GPT-4V(ision)的初步探索 (在新标签页中打开) (2023年9月)
- 图神经提示与大语言模型 (在新标签页中打开) (2023年9月)
- 大型语言模型对齐:一项调查 (在新标签页中打开) (2023年9月)
- 通过逻辑增强大型语言模型中的零样本链式推理 (在新标签页中打开) (2023年9月)
- 零样本提示设计的实用调查:上下文学习 (在新标签页中打开) (2023年9月)
- EchoPrompt: 指导模型重新表述查询以改进上下文学习 (在新标签页中打开) (2023年9月)
- Prompt, Condition, and Generate: 使用上下文学习对不支持的主张进行分类 (在新标签页中打开) (2023年9月)
- PolicyGPT: 使用大型语言模型自动分析隐私政策 (在新标签页中打开) (2023年9月)
- LLM4Jobs: 利用大型语言模型进行无监督职业提取和标准化 (在新标签页中打开) (2023年9月)
- 摘要(几乎)已死 (在新标签页中打开) (2023年9月)
- 调查事实验证中的零样本和少样本泛化 (在新标签页中打开) (2023年9月)
- 预训练大型语言模型GPT-4在自动简答题评分中的表现 (在新标签页中打开) (2023年9月)
- 对比解码提高大型语言模型的推理能力 (在新标签页中打开) (2023年9月)
- Struc-Bench: 大型语言模型真的擅长生成复杂的结构化数据吗? (在新标签页中打开) (2023年9月)
- 神经机器翻译模型可以学会成为少样本学习者 (在新标签页中打开) (2023年9月)
- 链式思维推理是一种策略改进操作符 (在新标签页中打开) (2023年9月)
- ICLEF: 专家反馈的上下文学习用于可解释的风格转换 (在新标签页中打开) (2023年9月)
- 生成查询和文档扩展何时会失败?跨方法、检索器和数据集的全面研究 (在新标签页中打开) (2023年9月)
- 使用大型语言模型进行知识工程(LLMKE):以Wikidata为例 (在新标签页中打开) (2023年9月)
- 自我一致的叙事提示在溯因自然语言推理 (在新标签页中打开) (2023年9月)
- 研究LLMs在长形式问答中的可回答性 (在新标签页中打开) (2023年9月)
- PromptTTS++: 使用自然语言描述在基于提示的文本到语音中控制说话者身份 (在新标签页中打开) (2023年9月)
- 大型语言模型在零样本临床自然语言处理中的提示策略实证评估 (在新标签页中打开) (2023年9月)
- 利用上下文信息进行有效的实体显著性检测 (在新标签页中打开) (2023年9月)
- Prompting4Debugging: 通过寻找问题提示来红队测试文本到图像扩散模型 (在新标签页中打开) (2023年9月)
- PACE: 在云事件根本原因分析中使用GPT-4进行提示和增强以进行校准置信度估计 (在新标签页中打开) (2023年9月)
- 从稀疏到密集:使用密度链提示的GPT-4摘要 (在新标签页中打开) (2023年9月)
- 测量和改进视觉语言模型中的链式思维推理 (在新标签页中打开) (2023年9月)
- Zero-Resource Hallucination Prevention for Large Language Models (在新标签页中打开) (2023年9月)
- Certifying LLM Safety against Adversarial Prompting (在新标签页中打开) (2023年9月)
- 通过动态温度采样改进代码生成 (在新标签页中打开) (2023年9月)
- 提示大型语言模型生成多样化的激励信息:与人类撰写信息的比较 (在新标签页中打开) (2023年8月)
- 使用微调的Llama 2 GPT模型进行金融新闻分析 (在新标签页中打开) (2023年8月)
- 大型语言模型代码生成的鲁棒性和可靠性研究 (在新标签页中打开) (2023年8月)
- 大型语言模型投票:罕见疾病识别的提示 (在新标签页中打开) (2023年8月)
- WizardMath: 通过强化进化指导赋能大型语言模型的数学推理 (在新标签页中打开) (2023年8月)
- 混合思维树:结合快速和慢速思维进行多跳视觉推理 (在新标签页中打开) (2023年8月)
- Graph of Thoughts: 使用大型语言模型解决复杂问题 (在新标签页中打开) (2023年8月)
- 使用话语链进行大型语言模型的红队测试以确保安全对齐 (在新标签页中打开) (2023年8月)
- 通过新框架提升大型语言模型中的逻辑推理能力:思维图 (在新标签页中打开) (2023年8月)
- You Only Prompt Once: On the Capabilities of Prompt Learning on Large Language Models to Tackle Toxic Content (在新标签页中打开) (2023年8月)
- LLM As DBA (在新标签页中打开) (2023年8月)
- 通过逐步规划生成可解释的数学应用题解决方案 (在新标签页中打开) (2023年6月)
- 面向任务对话系统的上下文学习用户模拟器 (在新标签页中打开) (2023年6月)
- SQL-PaLM: 改进的大型语言模型适应文本到SQL (在新标签页中打开) (2023年6月)
- 通过元学习和代表性词汇器实现有效的结构化提示 (在新标签页中打开) (2023年6月)
- 布局和任务感知的指令提示用于零样本文档图像问答 (在新标签页中打开) (2023年6月)
- 流式批量下的链式思维提示:案例研究 (在新标签页中打开) (2023年6月)
- 使用语言模型进行红队语言模型检测 (在新标签页中打开) (2023年5月)
- Gorilla: 连接大量API的大型语言模型 (在新标签页中打开) (2023年5月)
- Deliberate then Generate: Enhanced Prompting Framework for Text Generation (在新标签页中打开) (2023年5月)
- 在零样本/少样本设置中,无法用“分别”推理告诉我们关于语言模型的什么? (在新标签页中打开) (2023年5月)
- ScoNe: 通过微调和上下文学习在语言模型中评估否定推理 (在新标签页中打开) (2023年5月)
- SheetCopilot: 通过大型语言模型将软件生产力提升到新水平 (在新标签页中打开) (2023年5月)
- 使用大型语言模型进行领域特定语言生成的语法提示 (在新标签页中打开) (2023年5月)
- 减轻上下文学习中的标签偏见 (在新标签页中打开) (2023年5月)
- 使用一次性提示和文本相似度评分模型的简答题评分 (在新标签页中打开) (2023年5月)
- Strategic Reasoning with Language Models (在新标签页中打开) (2023年5月)
- 剖析思维链:关于MLPs组合式上下文学习的研究 (在新标签页中打开) (2023年5月)
- 标记人物:使用自然语言提示测量语言模型中的刻板印象 (在新标签页中打开) (2023年5月)
- 利用训练数据进行少样本提示以进行数值推理 (在新标签页中打开) (2023年5月)
- 探索GPT-3在语法错误纠正中的有效性:基于提示方法的性能和可控性研究 (在新标签页中打开) (2023年5月)
- NOTABLE: 针对基于提示的自然语言处理模型的可转移后门攻击 (在新标签页中打开) (2023年5月)
- Tab-CoT: 零样本表格思维链 (在新标签页中打开) (2023年5月)
- 评估GPT-3生成的仇恨内容审核解释 (在新标签页中打开) (2023年5月)
- Prompt-Guided Retrieval Augmentation for Non-Knowledge-Intensive Tasks (在新标签页中打开) (2023年5月)
- [基于提示的元学习的零样本和少样本事件检测]https://arxiv.org/abs/2305.17373 (在新标签页中打开)) (2023年5月)
- Chain-of-Thought Hub: 持续评估大型语言模型推理性能的努力 (在新标签页中打开) (2023年5月)
- 大型语言模型可以是懒惰的学习者:分析上下文学习中的捷径 (在新标签页中打开) (2023年5月)
- 大型语言模型的异构值评估 (在新标签页中打开) (2023年5月)
- PromptNER: 用于命名实体识别的提示定位和类型 (在新标签页中打开) (2023年5月)
- 小型语言模型通过重写其输出改进大型模型 (在新标签页中打开) (2023年5月)
- 关于大型语言模型的规划能力——一项关键调查 (在新标签页中打开) (2023年5月)
- 超越链式思维,大型语言模型中的有效图式思维推理 (在新标签页中打开) (2023年5月)
- PRODIGY: 在图上的上下文学习中启用 (在新标签页中打开) (2023年5月)
- 大型语言模型是少样本健康学习者 (在新标签页中打开) (2023年5月)
- 与大型语言模型进行角色扮演 (在新标签页中打开) (2023年5月)
- 测量未指定演示中的上下文学习归纳偏差 (在新标签页中打开) (2023年5月)
- 使用程序引导推理进行复杂声明的事实核查 (在新标签页中打开) (2023年5月)
- 大型语言模型作为工具制造者 (在新标签页中打开) (2023年5月)
- 迭代前向调优提升语言模型中的上下文学习 (在新标签页中打开) (2023年5月)
- SwiftSage: 一个具有快速和慢速思维的生成代理,用于复杂交互任务 (在新标签页中打开) (2023年5月)
- 交互式自然语言处理 (在新标签页中打开) (2023年5月)
- 自动发现的思维链提示能够推广到新的模型和数据集 (在新标签页中打开) (2023年5月)
- 大型语言模型引导的思维树 (在新标签页中打开) (2023年5月)
- 主动检索增强生成 (在新标签页中打开) (2023年5月)
- 从博士生视角看超大语言模型时代的NLP研究 (在新标签页中打开) (2023年5月)
- 视觉思维链:通过多模态填充弥合逻辑鸿沟 (在新标签页中打开) (2023年5月)
- Mirages: On Anthropomorphism in Dialogue Systems (在新标签页中打开) (2023年5月)
- 极端风险的模型评估 (在新标签页中打开) (2023年5月)
- 语言模型并不总是说出它们的想法:在思维链提示中的不忠实解释 (在新标签页中打开) (2023年5月)
- 通过人机语言模型交互对负面思维进行认知重构 (在新标签页中打开) (2023年5月)
- PromptClass: 使用提示增强的噪声鲁棒自训练进行弱监督文本分类 (在新标签页中打开) (2023年5月)
- 增强型大型语言模型与参数知识引导 (在新标签页中打开) (2023年5月)
- 通过合成反馈对齐大型语言模型 (在新标签页中打开) (2023年5月)
- 概念感知训练提高语言模型的上下文学习能力 (在新标签页中打开) (2023年5月)
- FrugalGPT: 如何在降低成本和提高性能的同时使用大型语言模型 (在新标签页中打开) (2023年5月)
- 通过基于提示的数据增强增强黑箱少样本文本分类 (在新标签页中打开) (2023年5月)
- 自动检测临床文档的布局以增强下游自然语言处理的性能 (在新标签页中打开) (2023年5月)
- "教皇是天主教徒吗?" 应用链式思维推理理解会话含义 (在新标签页中打开) (2023年5月)
- 让我们逐帧思考:通过视频填充和预测评估视频思维链 (在新标签页中打开) (2023年5月)
- 使用大型语言模型生成符号语言数据 (在新标签页中打开) (2023年5月)
- 做出选择!基于上下文学习的知识库问答 (在新标签页中打开) (2023年5月)
- 通过即插即用检索反馈改进语言模型 (在新标签页中打开) (2023年5月)
- 多粒度提示用于对话中的话题转移检测 (在新标签页中打开) (2023年5月)
- The CoT Collection: 通过思维链微调改进语言模型的零样本和少样本学习 (在新标签页中打开) (2023年5月)
- 语言模型能理解物理概念吗? (在新标签页中打开) (2023年5月)
- 使用大型语言模型评估摘要的事实一致性 (在新标签页中打开) (2023年5月)
- Dr.ICL: 演示检索的上下文学习 (在新标签页中打开) (2023年5月)
- 在上下文中探测:通过探测大型语言模型构建鲁棒分类器 (在新标签页中打开) (2023年5月)
- 基于技能的少样本选择用于上下文学习 (在新标签页中打开) (2023年5月)
- 探索链式思维风格提示用于文本到SQL (在新标签页中打开) (2023年5月)
- 通过扩展高质量指导对话增强聊天语言模型 (在新标签页中打开) (2023年5月)
- 关于使用大型语言模型作为参考学习总结 (在新标签页中打开) (2023年5月)
- 学习基于上下文的文献发现生成新的科学方向 (在新标签页中打开) (2023年5月)
- 大型语言模型上下文学习的主动学习原则 (在新标签页中打开) (2023年5月)
- LLMs在多步推理中的两个自洽性失败 (在新标签页中打开) (2023年5月)
- 通过多代理辩论提高语言模型的事实性和推理能力 (在新标签页中打开) (2023年5月)
- ChatCoT: 基于聊天的大型语言模型的工具增强链式思维推理 (在新标签页中打开) (2023年5月)
- WikiChat: 基于维基百科的少样本LLM聊天机器人 (在新标签页中打开) (2023年5月)
- 检索增强大型语言模型的查询重写 (在新标签页中打开) (2023年5月)
- 通过约束生成进行离散提示优化以实现零样本重新排序 (在新标签页中打开) (2023年5月)
- 基于大型语言模型的元素感知摘要:专家对齐评估与思维链方法 (在新标签页中打开) (2023年5月)
- 小型语言模型通过重写输出来改进大型模型 (在新标签页中打开) (2023年5月)
- Prompting and Evaluating Large Language Models for Proactive Dialogues: Clarification, Target-guided, and Non-collaboration (在新标签页中打开) (2023年5月)
- 基于提示的蒙特卡洛树搜索用于目标导向的对话策略规划 (在新标签页中打开) (2023年5月)
- 通过交互式问题-知识对齐减轻语言模型幻觉 (在新标签页中打开) (2023年5月)
- 通过执行反馈使语言模型成为更好的工具学习者 (在新标签页中打开) (2023年5月)
- 使用代码语言模型进行文本到SQL错误纠正 (在新标签页中打开) (2023年5月)
- 使用大型语言模型进行相关语言间机器翻译的分解提示 (在新标签页中打开) (2023年5月)
- SPARSEFIT: 使用稀疏微调进行少样本提示,以联合生成预测和自然语言解释 (在新标签页中打开) (2023年5月)
- "根据..."提示语言模型改进了从预训练数据中引用 (在新标签页中打开) (2023年5月)
- 基于提示的方法可能低估了大语言模型的语言泛化能力 (在新标签页中打开) (2023年5月)
- 知识链:一个用于将大型语言模型与结构化知识库结合的框架 (在新标签页中打开) (2023年5月)
- 测量未明确演示的上下文学习中的归纳偏差 (在新标签页中打开) (2023年5月)
- 使用指令微调语言模型进行自动化少样本分类 (在新标签页中打开) (2023年5月)
- 增强大型语言模型的少样本文本到SQL能力:提示设计策略研究 (在新标签页中打开) (2023年5月)
- MvP: 多视图提示改善方面情感元组预测 (在新标签页中打开) (2023年5月)
- 通过提示LLMs学习可解释的风格嵌入 (在新标签页中打开) (2023年5月)
- 通过隐私保护的上下文提示增强小型医疗学习者 (在新标签页中打开) (2023年5月)
- Fact-Checking Complex Claims with Program-Guided Reasoning (在新标签页中打开) (2023年5月)
- 极弱监督文本分类的基准:调和种子匹配和提示方法 (在新标签页中打开) (2023年5月)
- 此提示正在测量
:评估语言模型中的偏见评估 (在新标签页中打开) (2023年5月) - 通过多语言动词化器的软提示增强跨语言自然语言推理 (在新标签页中打开) (2023年5月)
- 评估基于提示的问答在开放研究知识图谱中的对象预测 (在新标签页中打开) (2023年5月)
- 解释Transformer如何利用上下文构建预测 (在新标签页中打开) (2023年5月)
- PiVe: 通过迭代验证提示提高基于图的LLMs生成能力 (在新标签页中打开) (2023年5月)
- PromptNER: 一种通过k近邻搜索进行少样本命名实体识别的提示方法 (在新标签页中打开) (2023年5月)
- Logic-LM: 使用符号求解器增强大型语言模型以实现忠实的逻辑推理 (在新标签页中打开) (2023年5月)
- 基于提示排序的数据增强增强少样本NER (在新标签页中打开) (2023年5月)
- Chain-of-thought prompting for responding to in-depth dialogue questions with LLM (在新标签页中打开) (2023年5月)
- 如何为文本到SQL提示LLMs:零样本、单领域和跨领域设置的研究 (在新标签页中打开) (2023年5月)
- 评估中大型语言模型在零样本闭卷生成问答中的表现 (在新标签页中打开) (2023年5月)
- Few-Shot Dialogue Summarization via Skeleton-Assisted Prompt Transfer (在新标签页中打开) (2023年5月)
- NLP模型能否正确推理打破常见假设的上下文? (在新标签页中打开) (2023年5月)
- Reasoning Implicit Sentiment with Chain-of-Thought Prompting (在新标签页中打开) (2023年5月)
- 编写自己的书籍:一种从封闭到开放书籍QA的方法,以提高较小LLMs的鲁棒性和性能 (在新标签页中打开) (2023年5月)
- AutoTrial: 提示语言模型用于临床试验设计 (在新标签页中打开) (2023年5月)
- CRITIC: 大型语言模型可以通过工具交互式批评自我纠正 (在新标签页中打开) (2023年5月)
- 通过提示调优控制从大型语言模型中提取记忆数据 (在新标签页中打开) (2023年5月)
- 使用伪代码指令提示 (在新标签页中打开) (2023年5月)
- TrueTeacher: 使用大型语言模型学习事实一致性评估 (在新标签页中打开) (2023年5月)
- 对齐指令任务解锁大型语言模型作为零样本关系提取器 (在新标签页中打开) (2023年5月)
- 利用偏见模型去偏见文本:一个性别公平的重写模型 (在新标签页中打开) (2023年5月)
- 学习用于命名实体识别的上下文学习 (在新标签页中打开) (2023年5月)
- Take a Break in the Middle: Investigating Subgoals towards Hierarchical Script Generation (在新标签页中打开) (2023年5月)
- TEPrompt: 任务启发式提示学习用于隐式话语关系识别 (在新标签页中打开) (2023年5月)
- 大型语言模型可以被引导以规避AI生成文本检测 (在新标签页中打开) (2023年5月)
- 无需知识使用时序知识图谱预测 (在新标签页中打开) (2023年5月)
- 激发大规模网络语音模型的隐藏才能以实现零样本任务泛化 (在新标签页中打开) (2023年5月)
- 跳出代码思维:头脑风暴提升大型语言模型在代码生成中的表现 (在新标签页中打开) (2023年5月)
- 通过自我对弈和从AI反馈中进行上下文学习来改进语言模型谈判 (在新标签页中打开) (2023年5月)
- ConvXAI:通过对话提供异构AI解释以支持人机科学写作 (在新标签页中打开) (2023年5月)
- StructGPT: 一个让大型语言模型在结构化数据上进行推理的通用框架 (在新标签页中打开) (2023年5月)
- Towards Expert-Level Medical Question Answering with Large Language Models (在新标签页中打开) (2023年5月)
- 大型语言模型是内置的自回归搜索引擎 (在新标签页中打开) (2023年5月)
- MsPrompt: 多步提示学习用于去偏少样本事件检测 (在新标签页中打开) (2023年5月)
- 探索层归一化对零样本神经机器翻译的影响 (在新标签页中打开) (2023年5月)
- SGP-TOD: 通过模式引导的LLM提示轻松构建任务机器人 (在新标签页中打开) (2023年5月)
- 多模态视觉理解与提示用于图像语义信息解耦 (在新标签页中打开) (2023年5月)
- Soft Prompt Decoding for Multilingual Dense Retrieval (在新标签页中打开) (2023年5月)
- PaLM 2 技术报告 (在新标签页中打开) (2023年5月)
- LLMs 是您进行任务导向对话所需的全部吗? (在新标签页中打开) (2023年4月)
- HiPrompt: 通过层次导向提示进行少量样本生物医学知识融合 (在新标签页中打开) (2023年4月)
- 使用提示近似人类对社交聊天机器人的评估 (在新标签页中打开) (2023年4月)
- 使用OpenAI的大型语言模型自动生成阅读段落 (在新标签页中打开) (2023年4月)
- WebBrain: 通过基于大型网络语料库的学习生成事实正确的查询文章 (在新标签页中打开) (2023年4月)
- Prompt Pre-Training with Twenty-Thousand Classes for Open-Vocabulary Visual Recognition (在新标签页中打开) (2023年4月)
- GPT检测器对非母语英语写作者有偏见 (在新标签页中打开) (2023年4月)
- 使用大型预训练语言模型进行零样本下一个项目推荐 (在新标签页中打开) (2023年4月)
- 大型语言模型作为万能钥匙:用GPT解锁材料科学的秘密 (在新标签页中打开) (2023年4月)
- 使用提示调优的高效对齐跨语言迁移学习用于对话任务 (在新标签页中打开) (2023年4月)
- 通过自我改进实现更好的代码语言模型 (在新标签页中打开) (2023年4月)
- PromptORE -- 一种全新的完全无监督关系抽取方法 (在新标签页中打开) (2023年4月)
- 使用风险卡片评估语言模型部署 (2023年4月)
- 利用气候资源增强大型语言模型 (在新标签页中打开) (2023年3月)
- BloombergGPT: 金融领域的大型语言模型 (在新标签页中打开) (2023年3月)
- 使用语言增强的Transformer编码器与医学提示进行医疗干预持续时间估计 (在新标签页中打开) (2023年3月)
- 使用初级保健自由文本荷兰医疗笔记预测肺癌的软提示调优 (在新标签页中打开) (2023年3月)
- TaskMatrix.AI: 通过连接基础模型与数百万API完成任务 (在新标签页中打开) (2023年3月)
- 更大的探针讲述不同的故事:通过上下文学习扩展心理语言学数据集 (在新标签页中打开) (2023年3月)
- Linguistically Informed ChatGPT Prompts to Enhance Japanese-Chinese Machine Translation: A Case Study on Attributive Clauses (在新标签页中打开) (2023年3月)
- 知识增强的框架语义解析与混合提示调优 (在新标签页中打开) (2023年3月)
- Debiasing Scores and Prompts of 2D Diffusion for Robust Text-to-3D Generation (在新标签页中打开) (2023年3月)
- 零样本模型诊断 (在新标签页中打开) (2023年3月)
- 提示大型语言模型生成混合代码文本:以东南亚语言为例 (在新标签页中打开) (2023年3月)
- SPeC: 基于软提示的校准,用于减轻临床笔记摘要中的性能变异性 (在新标签页中打开) (2023年3月)
- 大型语言模型与简单、愚蠢的错误 (在新标签页中打开) (2023年3月)
- 生成预训练变换器(GPT)能否通过高等教育编程课程的评估? (在新标签页中打开) (2023年3月)
- SelfCheckGPT: 生成式大型语言模型的无资源黑箱幻觉检测 (在新标签页中打开) (2023年3月)
- 工作场所中的大型语言模型:关于工作类型分类的提示工程案例研究 (在新标签页中打开) (2023年3月)
- ICL-D3IE: 用于文档信息提取的多样化演示更新的上下文学习 (在新标签页中打开) (2023年3月)
- MathPrompter: 使用大型语言模型进行数学推理 (在新标签页中打开) (2023年3月)
- 基于提示学习的网络安全论坛线程结构预测 (在新标签页中打开) (2023年3月)
- 选择胜过控制:用户如何使用Diegetic和Non-Diegetic提示与大型语言模型写作 (在新标签页中打开) (2023年3月)
- 使用答案启发式提示大型语言模型进行基于知识的视觉问答 (在新标签页中打开) (2023年3月)
- 软提示引导的跨领域情感分析联合学习 (在新标签页中打开) (2023年3月)
- SpeechPrompt v2: 语音分类任务的提示调优 (在新标签页中打开) (2023年3月)
- 通过语言描述的目标驱动发现分布差异 (在新标签页中打开) (2023年2月)
- 导航灰色地带:语言模型中的过度自信和不确定性表达 (在新标签页中打开) (2023年2月)
- TabGenie: 表格到文本生成工具包 (在新标签页中打开) (2023年2月)
- SGL-PT: 一种带有图提示调优的强图学习器 (在新标签页中打开) (2023年2月)
- Few-Shot Table-to-Text Generation with Prompt-based Adapter (在新标签页中打开) (2023年2月)
- 语言模型是用于预后预测的少样本学习器 (在新标签页中打开) (2023年2月)
- STA: 自控文本增强用于改进文本分类 (在新标签页中打开) (2023年2月)
- 检查你的事实并重试:利用外部知识和自动反馈改进大型语言模型 (在新标签页中打开) (2023年2月)
- 生成式AI模型如ChatGPT如何在SPC实践、教育和研究中被(误)使用?一项探索性研究 (在新标签页中打开) (2023年2月)
- Grimm in Wonderland: 使用Midjourney进行提示工程以插图童话 (在新标签页中打开) (2023年2月)
- LabelPrompt: 基于提示的有效关系分类学习 (在新标签页中打开) (2023年2月)
- 语言模型交叉:通过少样本提示进行变异 (在新标签页中打开) (2023年2月)
- 深度神经网络的提示调谐用于说话者自适应的视觉语音识别 (在新标签页中打开) (2023年2月)
- 大型语言模型的道德自我修正能力 (在新标签页中打开) (2023年2月)
- Prompting for Multimodal Hateful Meme Classification (在新标签页中打开) (2023年2月)
- PLACES: 提示语言模型用于社交对话合成 (在新标签页中打开) (2023年2月)
- Toolformer: 语言模型可以自学使用工具 (在新标签页中打开) (2023年2月)
- 常识感知提示用于可控共情对话生成 (在新标签页中打开) (2023年2月)
- Crawling the Internal Knowledge-Base of Language Models (在新标签页中打开) (2023年1月)
- 多语言法律判决预测的法律提示工程 (在新标签页中打开) (2022年12月)
- 研究扩散模型中的提示工程 (在新标签页中打开) (2022年11月)
- 学习解释:通过思维链进行科学问题回答的多模态推理 (在新标签页中打开) (2022年9月)
- 与Copilot对话:探索使用自然语言解决CS1问题的提示工程 (在新标签页中打开) (2022年10月)
- Piloting Copilot and Codex: 高温、冷提示还是黑魔法? (在新标签页中打开) (2022年10月)
- 从头开始编写预训练语言模型的绘图 (在新标签页中打开) (2022年7月)
- 自然语言生成中的幻觉调查 (在新标签页中打开) (2022年2月)