llms
#
LLM 类提供对大型语言模型 (LLM) API 和服务的访问。
类层次结构:
BaseLanguageModel --> BaseLLM --> LLM --> <name> # Examples: AI21, HuggingFaceHub, OpenAI
主要助手:
LLMResult, PromptValue,
CallbackManagerForLLMRun, AsyncCallbackManagerForLLMRun,
CallbackManager, AsyncCallbackManager,
AIMessage, BaseMessage
类
AI21 大型语言模型。 |
|
AI21惩罚数据的参数。 |
|
Aleph Alpha 大型语言模型。 |
|
Amazon API Gateway 用于访问托管在 AWS 上的 LLM 模型。 |
|
适配器,用于将Langchain的输入准备为LLM模型期望的格式。 |
|
Anyscale 大型语言模型。 |
|
Aphrodite 语言模型。 |
|
Arcee的领域适应语言模型(DALMs)。 |
|
Aviary 托管的模型。 |
|
|
Aviary 后端。 |
Azure ML 在线端点模型。 |
|
Azure ML 端点 API 类型。 |
|
AzureML 托管终端客户端。 |
|
Azure ML 在线端点模型。 |
|
将AzureML端点的请求和响应转换为符合所需模式。 |
|
用于使用类似OpenAI API方案的模型的内容格式化器。 |
|
Dolly-v2-12b 模型的内容处理器 |
|
GPT2的内容处理器 |
|
用于HuggingFace目录中的LLMs的内容处理器。 |
|
已弃用:保留以向后兼容 |
|
已弃用:保留以向后兼容 |
|
百川大语言模型。 |
|
百度千帆完成模型集成。 |
|
Banana 大型语言模型。 |
|
Baseten 模型 |
|
用于gpt2大型语言模型的Beam API。 |
|
Bedrock 模型的基类。 |
|
适配器类,用于将Langchain的输入准备为LLM模型期望的格式。 |
|
BigdlLLM模型的封装器 |
|
NIBittensor 大语言模型 |
|
CerebriumAI 大型语言模型。 |
|
ChatGLM LLM 服务。 |
|
ChatGLM3 LLM 服务。 |
|
Clarifai 大型语言模型。 |
|
Cloudflare Workers AI 服务。 |
|
C Transformers LLM 模型。 |
|
CTranslate2 语言模型。 |
|
DeepInfra 模型。 |
|
Neural Magic DeepSparse LLM 接口。 |
|
EdenAI 模型。 |
|
ExllamaV2 API. |
|
用于测试的假LLM。 |
|
用于测试的假流式列表LLM。 |
|
ForefrontAI 大型语言模型。 |
|
Friendli 的基类。 |
|
Friendli 大语言模型。 |
|
GigaChat 大型语言模型 API。 |
|
GooseAI 大型语言模型。 |
|
GPT4All 语言模型。 |
|
Gradient.ai LLM 端点。 |
|
训练结果。 |
|
用户输入作为响应。 |
|
IpexLLM 模型。 |
|
Javelin AI Gateway 大语言模型。 |
|
Javelin AI Gateway LLM 的参数。 |
|
Kobold API 语言模型。 |
|
Konko AI 模型。 |
|
Layerup Security LLM 服务。 |
|
llama.cpp 模型。 |
|
Llamafile 允许你使用单个文件分发和运行大型语言模型。 |
|
HazyResearch 的 Manifest 库。 |
|
Minimax 大型语言模型。 |
|
Minimax 大语言模型的通用参数。 |
|
MLflow LLM 服务。 |
|
MLflow AI Gateway 大语言模型。 |
|
MLflow AI Gateway LLM 的参数。 |
|
MLX 管道 API。 |
|
Modal 大型语言模型。 |
|
Moonshot 大语言模型。 |
|
Moonshot LLMs 的通用参数。 |
|
MosaicML 大语言模型服务。 |
|
NLPCloud 大型语言模型。 |
|
|
用于在OCI数据科学模型部署上部署的LLM的基类。 |
|
部署在OCI数据科学模型部署上的LLM。 |
|
OCI 数据科学模型部署 TGI 端点。 |
|
VLLM 部署在 OCI 数据科学模型部署上 |
在进行推理时遇到服务器错误时引发。 |
|
|
当令牌过期时引发。 |
|
OCI 认证类型作为枚举器。 |
OCI 大型语言模型。 |
|
OCI GenAI 模型的基类 |
|
OctoAI LLM 端点 - 兼容 OpenAI。 |
|
当找不到Ollama端点时引发。 |
|
使用OpaquePrompts来清理提示的LLM。 |
|
基础 OpenAI 大语言模型类。 |
|
OpenAI兼容的API客户端,用于OpenLLM服务器 |
|
OpenLM 模型。 |
|
Outlines库的LLM包装器。 |
|
Langchain LLM 类,用于帮助访问 eass llm 服务。 |
|
Petals 开花模型。 |
|
PipelineAI 大型语言模型。 |
|
使用您的Predibase模型与Langchain。 |
|
PromptLayer OpenAI 大型语言模型。 |
|
PromptLayer OpenAI 大型语言模型。 |
|
Replicate 模型。 |
|
RWKV 语言模型。 |
|
用于将LLM的输入转换为SageMaker端点期望的格式的处理类。 |
|
LLM 类的内容处理器。 |
|
解析字节流输入。 |
|
Sagemaker 推理终端模型。 |
|
SambaNova 云大型语言模型。 |
|
SambaStudio 大型语言模型。 |
|
在自托管的远程硬件上进行模型推理。 |
|
HuggingFace Pipeline API 用于在自托管的远程硬件上运行。 |
|
Solar 大型语言模型。 |
|
Solar LLMs 的通用配置。 |
|
iFlyTek Spark 完成模型集成。 |
|
StochasticAI 大型语言模型。 |
|
Nebula 服务模型。 |
|
来自WebUI的文本生成模型。 |
|
|
用于推理的设备,cuda 或 cpu |
用于在Titan Takeoff API中部署的读取器的配置。 |
|
Titan Takeoff API 语言模型。 |
|
通义完成模型集成。 |
|
VLLM 语言模型。 |
|
vLLM OpenAI兼容的API客户端 |
|
VolcEngineMaas 模型的基类。 |
|
volc engine maas 托管了大量模型。 |
|
仅权重量化模型。 |
|
Writer 大型语言模型。 |
|
Xinference 大规模模型推理服务。 |
|
Yandex 大型语言模型。 |
|
Yi 大型语言模型。 |
|
围绕You.com的对话式智能和研究API的封装器。 |
|
Yuan2.0 语言模型。 |
函数
|
从选择和提示中创建LLMResult。 |
|
更新令牌使用情况。 |
|
从Aviary模型中获取补全。 |
列出可用的模型 |
|
|
使用 tenacity 重试完成调用。 |
|
使用tenacity重试完成调用。 |
获取默认的Databricks个人访问令牌。 |
|
获取默认的Databricks工作区主机名。 |
|
如果在 Databricks 笔记本中运行,获取笔记本 REPL 上下文。 |
|
|
使用tenacity重试完成调用。 |
使用tenacity重试完成调用。 |
|
使用tenacity重试流式调用的完成操作。 |
|
|
使用tenacity重试完成调用。 |
使用tenacity重试完成调用。 |
|
有条件地应用装饰器。 |
|
|
使用tenacity重试完成调用。 |
如果存在,从URL中删除尾部斜杠和/api。 |
|
|
默认的护栏违规处理程序。 |
|
从文件中加载LLM。 |
|
从配置字典加载LLM。 |
|
使用tenacity重试异步完成调用。 |
|
使用tenacity重试完成调用。 |
|
更新令牌使用情况。 |
使用tenacity重试完成调用。 |
|
|
从模型中生成文本。 |
从异步可迭代对象生成元素,并返回一个布尔值指示是否为最后一个元素。 |
|
|
stream_generate_with_retry 的异步版本。 |
检查来自完成调用的响应。 |
|
从可迭代对象生成元素,并返回一个布尔值指示是否为最后一个元素。 |
|
|
使用tenacity重试完成调用。 |
|
使用tenacity重试完成调用。 |
|
一旦出现任何停止词,立即切断文本。 |
|
使用tenacity重试完成调用。 |
|
使用tenacity重试完成调用。 |
|
如果模型名称是Codey模型,则返回True。 |
|
如果模型名称是Gemini模型,则返回True。 |
|
使用 tenacity 重试异步完成调用。 |
|
使用tenacity重试完成调用。 |
已弃用的类