提示工程指南🎓 提示工程课程🎓 提示工程课程服务服务关于关于
GitHubGitHub (在新标签页中打开)
  • Prompt Engineering
  • 介绍
    • LLM 设置
    • 提示基础
    • 提示元素
    • 设计提示的通用技巧
    • 提示示例
  • 技术
    • 零样本提示
    • Few-shot Prompting
    • Chain-of-Thought Prompting
    • Meta Prompting
    • 自我一致性
    • 生成知识提示
    • 提示链
    • 思维之树
    • 检索增强生成
    • 自动推理与工具使用
    • 自动提示工程师
    • Active-Prompt
    • 方向性刺激提示
    • 程序辅助语言模型
    • ReAct
    • Reflexion
    • Multimodal CoT
    • Graph Prompting
    • 优化提示
  • 应用程序
    • 微调 GPT-4o
    • 函数调用
    • 使用LLMs的上下文缓存
    • 生成数据
    • 生成RAG的合成数据集
    • 处理生成数据集的多样性
    • 生成代码
    • 毕业生工作分类案例研究
    • 提示功能
  • Prompt Hub
    • 分类
      • 情感分类
      • Few-Shot Sentiment Classification
    • Coding
      • 生成代码片段
      • 生成MySQL查询
      • 绘制TiKZ图表
    • 创造力
      • Rhymes
      • 无限素数
      • 跨学科
      • 发明新词
    • 评估
      • 评估柏拉图的对话
    • 信息提取
      • 提取模型名称
    • 图像生成
      • 用字母画一个人
    • 数学
      • 评估复合函数
      • 添加奇数
    • 问答
      • 封闭领域问答
      • 开放领域问答
      • 科学问答
    • 推理
      • 间接推理
      • 物理推理
    • 文本摘要
      • 解释一个概念
    • 真实性
      • 幻觉识别
    • 对抗性提示
      • 提示注入
      • Prompt Leaking
      • 越狱
  • 模型
    • ChatGPT
    • Claude 3
    • Code Llama
    • Flan
    • Gemini
    • Gemini Advanced
    • Gemini 1.5 Pro
    • Gemma
    • GPT-4
    • Grok-1
    • LLaMA
    • Llama 3
    • Mistral 7B
    • Mistral Large
    • Mixtral
    • Mixtral 8x22B
    • OLMo
    • Phi-2
    • Sora
    • LLM 集合
  • 风险与误用
    • 对抗性提示
    • 事实性
    • 偏见
  • LLM 研究成果
    • LLM Agents
    • RAG for LLMs
    • LLM推理
    • RAG 忠实度
    • LLM 上下文召回
    • RAG 减少幻觉
    • 合成数据
    • ThoughtSculpt
    • Infini-Attention
    • LM-Guided CoT
    • LLMs中的可信度
    • LLM Tokenization
    • 什么是Groq?
  • 论文
  • 工具
  • Notebooks
  • 数据集
  • 附加阅读材料
有问题吗?给我们反馈 →(在新标签页中打开)编辑此页面
Prompt Hub
Coding

用于代码生成的LLMs

本节包含一系列用于测试LLM代码生成能力的提示。

Few-Shot Sentiment ClassificationGenerate Code Snippet

Copyright © 2024 DAIR.AI