langchain-community: 0.3.14#
包的主要入口点。
适配器#
类
聊天。 |
|
聊天完成。 |
|
聊天完成块。 |
|
聊天完成。 |
|
选择。 |
|
选择块。 |
|
补全。 |
|
允许BaseModel通过字符串变量索引返回其字段。 |
函数
|
异步版本的枚举函数。 |
将字典转换为LangChain消息。 |
|
将LangChain消息转换为字典。 |
|
将消息转换为用于微调的字典列表的列表。 |
|
|
将表示OpenAI消息的字典转换为LangChain格式。 |
agent_toolkits#
类
用于与AINetwork区块链交互的工具包。 |
|
用于与Amadeus交互的工具包,Amadeus提供旅行相关的API。 |
|
用于Azure AI服务的工具包。 |
|
|
用于Azure认知服务的工具包。 |
|
用于与Apache Cassandra数据库交互的工具包。 |
Clickup 工具包。 |
|
CogniSwitch的工具包。 |
|
包含一系列Connery操作的工具包。 |
|
|
用于与本地文件交互的工具包。 |
|
用于与financialdatasets.ai交互的工具包。 |
需要分支名称作为输入的操作的架构。 |
|
需要评论作为输入的操作的模式。 |
|
需要文件路径和内容作为输入的操作的架构。 |
|
需要PR标题和正文作为输入的操作的架构。 |
|
需要用户名作为输入的操作的架构。 |
|
需要文件路径作为输入的操作的架构。 |
|
需要目录路径作为输入的操作的架构。 |
|
需要问题编号作为输入的操作的架构。 |
|
需要PR编号作为输入的操作的架构。 |
|
GitHub 工具包。 |
|
不需要任何输入的操作的架构。 |
|
需要文件路径作为输入的操作的架构。 |
|
需要搜索查询作为输入的操作的架构。 |
|
需要搜索查询作为输入的操作的架构。 |
|
需要文件路径和内容作为输入的操作的架构。 |
|
GitLab 工具包。 |
|
用于与Gmail交互的工具包。 |
|
Jira 工具包。 |
|
用于与JSON规范交互的工具包。 |
|
用于与浏览器代理交互的工具包。 |
|
Nasa 工具包。 |
|
自然语言API工具。 |
|
自然语言API工具包。 |
|
用于与Office 365交互的工具包。 |
|
|
发送DELETE请求并解析响应的工具。 |
带有LLM指导的截断响应提取的Requests GET工具。 |
|
带有LLM指导的截断响应提取的Requests PATCH工具。 |
|
带有LLM指导的截断响应提取的Requests POST工具。 |
|
带有LLM指导的截断响应提取的Requests PUT工具。 |
|
一个简化的OpenAPI规范。 |
|
用于与OpenAPI API交互的工具包。 |
|
用于进行REST请求的工具包。 |
|
用于PlayWright浏览器工具的工具包。 |
|
Polygon 工具包。 |
|
用于与Power BI数据集交互的工具包。 |
|
用于与Slack交互的工具包。 |
|
用于与Spark SQL交互的工具包。 |
|
用于与SQL数据库交互的SQLDatabaseToolkit。 |
|
Steam 工具包。 |
|
Zapier 工具包。 |
函数
从LLM和工具构建一个json代理。 |
|
获取所有可能的工具名称列表。 |
|
从 HuggingFace Hub 加载一个工具。 |
|
|
根据名称加载工具。 |
|
|
从LLM和工具构建一个OpenAPI代理。 |
|
为给定的规范构建一个OpenAI API规划器和控制器。 |
|
以某种方式简化/提炼/压缩规范。 |
|
从LLM和工具构建一个Power BI代理。 |
|
从聊天LLM和工具构建一个Power BI代理。 |
|
从LLM和工具构建一个Spark SQL代理。 |
|
从LLM和工具包或数据库构建SQL代理。 |
agents#
类
缓存#
类
|
使用Redis作为后端的缓存。 |
|
使用 Cosmos DB NoSQL 后端的缓存 |
|
使用Cosmos DB Mongo vCore向量存储后端的缓存 |
|
使用 Cassandra / Astra DB 作为后端的缓存。 |
|
使用Cassandra作为向量存储后端进行语义(即基于相似性)查找的缓存。 |
|
用于完整LLM缓存的SQLite表(所有生成)。 |
|
用于完整LLM缓存的SQLite表(所有生成)。 |
|
使用GPTCache作为后端的缓存。 |
缓存,将内容存储在内存中。 |
|
|
使用pymemcache客户端库通过Memcached后端进行缓存 |
|
使用Momento作为后端的缓存。 |
|
使用OpenSearch向量存储后端的缓存 |
|
使用 Redis 作为后端的缓存。 |
|
使用Redis作为向量存储后端的缓存。 |
|
使用SQAlchemy作为后端的缓存。 |
|
使用SQAlchemy作为后端的缓存。 |
|
使用SQLite作为后端的缓存。 |
|
使用 SingleStore DB 作为后端的缓存 |
|
使用 Upstash Redis 作为后端的缓存。 |
已弃用的类
|
|
|
回调#
类
记录到Aim的回调处理程序。 |
|
用于回调的元数据和相关函数状态的回调处理程序。 |
|
记录到Argilla的回调处理程序。 |
|
记录到Arize的回调处理程序。 |
|
记录到Arthur平台的回调处理程序。 |
|
|
回调处理程序,用于跟踪bedrock anthropic信息。 |
记录到ClearML的回调处理程序。 |
|
记录到Comet的回调处理程序。 |
|
|
将日志记录到deepeval的回调处理程序。 |
将记录转录到Context服务的回调处理程序。 |
|
初始化Fiddler回调处理程序。 |
|
用于Flyte任务中的回调处理程序。 |
|
用于手动验证值的异步回调。 |
|
用于手动验证值的回调函数。 |
|
当人工审查并拒绝某个值时抛出的异常。 |
|
记录到Infino的回调处理程序。 |
|
|
Label Studio 回调处理程序。 |
Label Studio 模式枚举器。 |
|
|
LLMonitor的回调处理程序。 |
用于LLMonitor用户上下文的上下文管理器。 |
|
将指标和工件记录到mlflow服务器的回调处理程序。 |
|
|
将指标和工件记录到mlflow服务器的回调处理程序。 |
用于跟踪OpenAI信息的回调处理程序。 |
|
|
Token 类型枚举。 |
|
用于promptlayer的回调处理程序。 |
回调处理程序,用于将提示工件和指标记录到SageMaker实验中。 |
|
子记录作为NamedTuple。 |
|
子类型的枚举器。 |
|
可以重命名并动态展开/折叠的Streamlit扩展器。 |
|
|
LLM 思维流中的一个想法。 |
|
为LLMThought容器生成Markdown标签。 |
|
LLMThought状态的枚举器。 |
|
回调处理程序,用于写入Streamlit应用程序。 |
|
工具记录作为NamedTuple。 |
|
Comet 追踪器。 |
WandbTracer 的参数。 |
|
记录到Weights and Biases的回调处理程序。 |
|
Trubrics的回调处理程序。 |
|
|
Upstash 限速错误 |
|
用于处理基于请求数量或输入中令牌数量的速率限制的回调。 |
将评估结果记录到uptrain和控制台的回调处理程序。 |
|
用于跟踪评估结果的UpTrain数据模式。 |
|
处理回调的元数据和相关函数状态。 |
|
记录到Weights and Biases的回调处理程序。 |
|
用于记录到WhyLabs的回调处理程序。 |
函数
导入 aim python 包,如果未安装则引发错误。 |
|
导入clearml python包,如果未安装则引发错误。 |
|
导入comet_ml,如果未安装则引发错误。 |
|
导入 getcontext 包。 |
|
导入 fiddler Python 包,如果未安装则引发错误。 |
|
使用textstat和spacy分析文本。 |
|
导入 flytekit 和 flytekitplugins-deck-standard。 |
|
使用 tiktoken 包计算 OpenAI 的令牌数量。 |
|
导入infino客户端。 |
|
导入 tiktoken 用于计算 OpenAI 模型的 token 数量。 |
|
|
获取给定模式的默认Label Studio配置。 |
构建一个LLMonitor UserContextManager |
|
在上下文管理器中获取Bedrock anthropic回调处理程序。 |
|
在上下文管理器中获取OpenAI回调处理程序。 |
|
在上下文管理器中获取WandbTracer。 |
|
使用 textstat 和 spacy 分析文本。 |
|
|
从提示和生成中构造一个html元素。 |
从textstat获取文本复杂度指标。 |
|
导入 mlflow Python 包,如果未安装则引发错误。 |
|
获取要记录到MLFlow的指标。 |
|
获取给定模型和令牌数量的成本(以美元计)。 |
|
将模型名称标准化为可以在OpenAI API中使用的格式。 |
|
|
将字典保存到本地文件路径。 |
导入 comet_llm api,如果未安装则抛出错误。 |
|
从运行列表中构建嵌套字典。:param runs: 用于构建树的运行列表。:return: 表示langchain Run的嵌套字典,结构与WBTraceTree兼容。 |
|
将嵌套的运行对象扁平化为运行列表的工具。 |
|
用于修改运行字典列表中序列化字段的工具。移除与exact_keys匹配的任何键以及包含partial_keys中任何部分的键。递归地将kwargs键下的字典移动到顶层。将"id"字段更改为字符串"_kind"字段,告诉WBTraceTree如何可视化运行。将"serialized"字段提升到顶层。 :param runs: 要修改的运行列表。 :param exact_keys: 要从序列化字段中移除的键的元组。 :param partial_keys: 要从序列化字段中移除的部分键的元组。 :return: 修改后的运行列表。 |
|
用于截断运行字典列表的工具,仅保留指定的 |
|
导入 uptrain 包。 |
|
|
将嵌套字典展平为一个扁平字典。 |
使用sha1哈希一个字符串。 |
|
导入 pandas Python 包,如果未安装则引发错误。 |
|
导入 spacy Python 包,如果未安装则引发错误。 |
|
导入 textstat Python 包,如果未安装则引发错误。 |
|
|
将json文件加载为字符串。 |
使用textstat和spacy分析文本。 |
|
|
从提示和生成中构造一个HTML元素。 |
导入 wandb python 包,如果未安装则引发错误。 |
|
将json文件加载为字典。 |
|
导入 langkit Python 包,如果未安装则引发错误。 |
chains#
类
通过生成AQL语句来对图进行问答的链。 |
|
用于针对图进行问答的链。 |
|
创建 Schema(left_node, relation, right_node) 的新实例 |
|
通过生成Cypher语句对图进行问答的链。 |
|
通过生成gremlin语句来对图进行问答的链。 |
|
通过生成gremlin语句来对图进行问答的链。 |
|
通过为Kùzu生成Cypher语句来对图进行问答。 |
|
通过生成Cypher语句来对图进行问答的链。 |
|
通过生成nGQL语句来对图进行问答的链。 |
|
通过生成openCypher语句来对Neptune图进行问答的链。 |
|
通过生成SPARQL语句来对Neptune图进行问答的链。 |
|
针对Ontotext GraphDB的问答 |
|
通过生成SPARQL语句对RDF或OWL图进行问答。 |
|
请求URL然后使用LLM解析结果的链。 |
|
链使用自然语言与OpenAPI端点进行交互。 |
|
获取请求解析器。 |
|
解析请求和错误标签。 |
|
获取响应解析器。 |
|
解析响应和错误标签。 |
|
用于针对向量数据库进行问答的检索链,具有身份和语义强制功能。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
用于授权上下文的类。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
PebbloRetrievalQA 链的输入。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
Langchain 框架详情 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
操作系统,语言详情 |
|
用于语义上下文的类。 |
|
用于语义实体过滤的类。 |
|
用于语义主题过滤的类。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
Pebblo 检索 API 的封装器。 |
|
Pebblo API 可用的路由作为枚举器。 |
函数
|
将Python函数转换为与Ernie函数调用API兼容的字典。 |
将原始函数/类转换为Ernie函数。 |
|
[遗留] 创建一个使用Ernie函数的LLM链。 |
|
创建一个使用Ernie函数的可运行序列。 |
|
|
[旧版] 创建一个使用Ernie函数获取结构化输出的LLMChain。 |
|
创建一个使用Ernie函数获取结构化输出的可运行对象。 |
根据用户函数获取适当的函数输出解析器。 |
|
从文本中提取Cypher代码。 |
|
从文本中提取Gremlin代码。 |
|
从文本中提取Cypher代码。 |
|
|
从文本中移除前缀。 |
从文本中提取Cypher代码。 |
|
使用正则表达式从文本中提取Cypher代码。 |
|
修剪查询以仅包含Cypher关键字。 |
|
决定是否使用简单提示 |
|
从文本中提取SPARQL代码。 |
|
|
清除检索器 search_kwargs 中的身份和语义强制过滤器。 |
|
在检索器中设置身份和语义强制过滤器。 |
获取本地运行时的IP地址。 |
|
获取当前的框架和运行时详细信息。 |
已弃用的类
已弃用的函数
chat_loaders#
类
|
从文件夹加载Facebook Messenger聊天数据。 |
|
从单个文件加载Facebook Messenger聊天数据。 |
从iMessage的chat.db SQLite文件中加载聊天会话。 |
|
从具有“chat”数据类型的LangSmith数据集中加载聊天会话。 |
|
从LangSmith的"llm"运行列表中加载聊天会话。 |
|
从转储的zip文件中加载Slack对话。 |
|
加载 telegram 对话到 LangChain 聊天消息。 |
|
从转储的zip文件或目录中加载WhatsApp对话。 |
函数
|
将自2001年以来的纳秒转换为datetime对象。 |
将指定“发送者”的消息转换为AI消息。 |
|
将指定“发送者”的消息转换为AI消息。 |
|
|
合并聊天会话。 |
在聊天会话中合并聊天运行。 |
已弃用的类
|
chat_message_histories#
类
函数
如果主题不存在则创建,并返回分区数量。 |
|
为给定的表名创建消息模型。 |
|
|
将Zep记忆压缩为人类消息。 |
|
从角色字符串中获取Zep角色类型。 |
已弃用的类
chat_models#
类
Anyscale 聊天大语言模型。 |
|
Azure ML 在线端点聊天模型。 |
|
|
用于具有类似OpenAI API方案的模型的聊天内容格式化器。 |
已弃用:保留以向后兼容 |
|
用于LLaMA的内容格式化器。 |
|
Mistral 的内容格式化器。 |
|
百川聊天模型集成。 |
|
百度千帆聊天模型集成。 |
|
适配器类,用于将Langchain的输入准备为聊天模型期望的提示格式。 |
|
用于Cloudflare Workers AI的自定义聊天模型 |
|
由coze.com提供的ChatCoze聊天模型API |
|
Dappier 聊天大语言模型。 |
|
一个使用DeepInfra API的聊天模型。 |
|
当DeepInfra API返回错误时引发的异常。 |
|
EdenAI 聊天大语言模型。 |
|
EverlyAI 聊天大语言模型。 |
|
用于测试的假聊天模型。 |
|
用于测试的假聊天模型。 |
|
用于聊天的Friendli LLM。 |
|
Google PaLM 聊天模型 API。 |
|
Google PaLM API 的错误。 |
|
GPTRouter 由 Writesonic Inc. 提供。 |
|
GPTRouter APIs 错误 |
|
GPTRouter 模型。 |
|
返回用户输入作为响应的ChatModel。 |
|
腾讯混元聊天模型API由腾讯提供。 |
|
Javelin AI Gateway 聊天模型 API。 |
|
Javelin AI Gateway LLM 的参数。 |
|
Jina AI 聊天模型 API。 |
|
Kinetica LLM 聊天模型 API。 |
|
从Kinetica LLM获取并返回数据。 |
|
包含SQL和获取的数据的响应。 |
|
Kinetica 实用函数。 |
|
ChatKonko 聊天大语言模型 API。 |
|
使用LiteLLM API的聊天模型。 |
|
与LiteLLM I/O库相关的错误 |
|
LiteLLM 路由器作为 LangChain 模型。 |
|
通过llama-api-server与LLMs聊天 |
|
llama.cpp 模型。 |
|
MariTalk 聊天模型 API。 |
|
使用request和response对象初始化RequestException。 |
|
MiniMax 聊天模型集成。 |
|
MLflow 聊天模型 API。 |
|
MLflow AI Gateway 聊天模型 API。 |
|
MLflow AI Gateway LLM 的参数。 |
|
MLX 聊天模型。 |
|
Moonshot 聊天模型集成。 |
|
NCP ClovaStudio 聊天完成 API。 |
|
OCI 数据科学模型部署聊天模型集成。 |
|
使用文本生成推理部署的OCI大型语言聊天模型。 |
|
使用vLLM部署的OCI大型语言聊天模型。 |
|
ChatOCIGenAI 聊天模型集成。 |
|
OctoAI 聊天大语言模型。 |
|
Outlines 聊天模型集成。 |
|
阿里云PAI-EAS LLM服务聊天模型API。 |
|
Perplexity AI 聊天模型 API。 |
|
PremAI 聊天模型。 |
|
与PremAI API相关的错误。 |
|
PromptLayer 和 OpenAI 聊天大语言模型 API。 |
|
Reka 聊天大语言模型。 |
|
SambaNova 云聊天模型。 |
|
SambaStudio 聊天模型。 |
|
基于Snowflake Cortex的聊天模型 |
|
Snowpark 客户端错误。 |
|
IFlyTek Spark 聊天模型集成。 |
|
Nebula 聊天大语言模型 - https://docs.symbl.ai/docs/nebula-llm |
|
阿里巴巴通义千问聊天模型集成。 |
|
Volc Engine Maas 托管了大量模型。 |
|
Writer 聊天模型。 |
|
YandexGPT 大型语言模型。 |
|
Yi 聊天模型 API。 |
|
Yuan2.0 聊天模型 API。 |
|
ZhipuAI 聊天模型集成。 |
函数
|
将消息列表格式化为Anthropic模型的完整提示 |
用于连接到SSE流的异步上下文管理器。 |
|
|
将消息转换为可以传递给API的字典。 |
将消息列表转换为mistral的提示。 |
|
获取Cohere聊天API的请求。 |
|
|
获取消息的角色。 |
使用tenacity重试异步完成调用。 |
|
使用tenacity重试流式调用的完成操作。 |
|
使用tenacity重试完成调用。 |
|
定义条件装饰器。 |
|
将字典响应转换为消息。 |
|
|
获取Friendli聊天API的请求。 |
|
获取消息的角色。 |
使用tenacity重试异步完成调用。 |
|
|
使用tenacity重试完成调用。 |
使用tenacity重试异步完成调用。 |
|
使用tenacity重试完成调用。 |
|
返回模型路由器输入的正文。 |
|
使用tenacity重试异步完成调用。 |
|
使用tenacity重试异步完成调用。 |
|
从使用情况和参数中获取llm输出。 |
|
将消息列表转换为llama的提示。 |
|
用于连接到SSE流的异步上下文管理器。 |
|
用于连接到SSE流的上下文管理器。 |
|
使用tenacity重试异步完成调用。 |
|
|
在完成调用中使用tenacity进行重试 |
为PremAI API错误创建一个重试装饰器。 |
|
将LangChain消息转换为Reka消息格式。 |
|
|
处理内容以处理文本和媒体输入,返回内容项列表。 |
处理单个内容项。 |
|
将字典转换为消息。 |
|
将消息块转换为消息。 |
|
将消息转换为字典。 |
|
将字典转换为消息。 |
|
使用 tenacity 重试异步完成调用。 |
|
使用tenacity重试完成调用。 |
|
|
|
使用tenacity重试异步完成调用。 |
|
|
用于连接到SSE流的异步上下文管理器。 |
|
用于连接到SSE流的上下文管理器。 |
已弃用的类
cross_encoders#
类
假的交叉编码器模型。 |
|
HuggingFace 交叉编码器模型。 |
|
|
CrossEncoder类的内容处理器。 |
|
SageMaker推理CrossEncoder端点。 |
docstore#
类
|
通过任意查找函数的文档存储。 |
支持添加文本的Mixin类。 |
|
访问存储文档的地方的接口。 |
|
|
简单的内存文档存储,以字典形式存在。 |
维基百科 API。 |
document_compressors#
类
使用DashScope Rerank API的文档压缩器。 |
|
使用Flashrank接口的文档压缩器。 |
|
使用Infinity Rerank API的文档压缩器。 |
|
使用Jina Rerank API的文档压缩器。 |
|
使用LLMLingua项目进行压缩。 |
|
OpenVINO 重排序模型。 |
|
重新排序的请求。 |
|
使用Flashrank接口的文档压缩器。 |
|
使用Volcengine Rerank API的文档压缩器。 |
document_loaders#
类
|
从目录加载acreom保险库。 |
使用CDK实现的Airbyte源连接器加载。 |
|
使用 Airbyte 源连接器从 Gong 加载。 |
|
使用Airbyte源连接器从Hubspot加载。 |
|
使用Airbyte源连接器从Salesforce加载。 |
|
使用Airbyte源连接器从Shopify加载。 |
|
使用Airbyte源连接器从Stripe加载。 |
|
使用 Airbyte 源连接器从 Typeform 加载。 |
|
使用Airbyte源连接器从Zendesk Support加载。 |
|
加载本地的Airbyte json文件。 |
|
加载 Airtable 表格。 |
|
从Apify网络抓取、爬取和数据提取平台加载数据集。 |
|
从ArcGIS FeatureLayer加载记录。 |
|
|
从Arxiv加载查询结果。 |
加载 AssemblyAI 音频转录。 |
|
|
加载 AssemblyAI 音频转录。 |
用于文档加载器的转录格式。 |
|
异步加载 HTML。 |
|
|
从AWS Athena加载文档。 |
加载 AZLyrics 网页。 |
|
从Azure AI数据加载。 |
|
|
从Azure Blob Storage容器加载。 |
|
从Azure Blob Storage文件加载。 |
|
从百度BOS目录加载。 |
|
从百度云 BOS文件加载。 |
所有使用O365包的加载器的基类 |
|
|
加载一个bibtex文件。 |
从BiliBili视频中加载获取字幕。 |
|
加载一个Blackboard课程。 |
|
|
从云URL或文件加载blobs。 |
|
加载本地文件系统中的blobs。 |
|
将YouTube网址加载为音频文件。 |
从区块链智能合约加载元素。 |
|
支持的区块链的枚举器。 |
|
使用Brave Search引擎加载。 |
|
使用托管在Browserbase上的无头浏览器加载预渲染的网页。 |
|
使用Browserless的/content端点加载网页。 |
|
用于Apache Cassandra的文档加载器。 |
|
|
从导出的ChatGPT数据中加载对话。 |
Microsoft 编译的 HTML 帮助 (CHM) 解析器。 |
|
使用Unstructured加载CHM文件。 |
|
使用无头模式的Chromium实例从URL中抓取HTML页面。 |
|
|
加载 College Confidential 网页。 |
并发加载和解析文档。 |
|
加载 Confluence 页面。 |
|
Confluence页面内容格式的枚举器。 |
|
|
加载 CoNLL-U 文件。 |
从Couchbase加载文档。 |
|
|
将CSV文件加载到文档列表中。 |
使用Unstructured加载CSV文件。 |
|
加载 Cube 语义层 元数据。 |
|
加载 Datadog 日志。 |
|
使用数据框对象进行初始化。 |
|
加载 Pandas 数据框。 |
|
使用dedoc API加载文件。文件加载器会自动检测文件类型(即使扩展名错误)。默认情况下,加载器会调用本地托管的dedoc API。有关dedoc API的更多信息可以在dedoc文档中找到:https://dedoc.readthedocs.io/en/latest/dedoc_api_usage/api.html。 |
|
使用 dedoc (https://dedoc.readthedocs.io) 的基础加载器。 |
|
DedocFileLoader 文档加载器集成,用于使用 dedoc 加载文件。 |
|
加载 Diffbot json 文件。 |
|
从目录加载。 |
|
加载 Discord 聊天记录。 |
|
|
使用Azure文档智能加载PDF。 |
从Docusaurus文档加载。 |
|
从Dropbox加载文件。 |
|
从 DuckDB 加载。 |
|
使用 extract_msg 加载 Outlook 邮件文件。 |
|
使用 Unstructured 加载电子邮件文件。 |
|
使用Unstructured加载EPub文件。 |
|
从Ethereum主网加载交易。 |
|
从EverNote加载。 |
|
使用Unstructured加载Microsoft Excel文件。 |
|
加载Facebook Chat消息目录转储。 |
|
|
从 FaunaDB 加载。 |
加载 Figma 文件。 |
|
FireCrawlLoader 文档加载器集成 |
|
通用文档加载器。 |
|
加载 geopandas 数据框。 |
|
|
加载 Git 仓库文件。 |
|
加载 GitBook 数据。 |
加载 GitHub 仓库的问题。 |
|
加载 GitHub 仓库的问题。 |
|
加载 GitHub 文件 |
|
从AWS Glue加载表结构。 |
|
从Gutenberg.org加载。 |
|
文件编码作为NamedTuple。 |
|
|
加载 Hacker News 数据。 |
使用 Unstructured 加载 HTML 文件。 |
|
|
__ModuleName__ 文档加载器集成 |
|
从Hugging Face Hub数据集中加载。 |
|
从Hugging Face Hub加载模型信息,包括README内容。 |
|
加载 iFixit 维修指南、设备维基和答案。 |
使用 Unstructured 加载 PNG 和 JPG 文件。 |
|
加载图像描述。 |
|
加载 IMSDb 网页。 |
|
|
从 IUGU 加载。 |
从Joplin加载笔记。 |
|
使用 jq 模式加载 JSON 文件。 |
|
从 Kinetica API 加载。 |
|
用于lakeFS的客户端。 |
|
|
从 lakeFS 加载。 |
从 lakeFS 加载为非结构化数据。 |
|
从 LarkSuite (飞书) 加载。 |
|
从 LarkSuite (FeiShu) 维基加载。 |
|
使用LLMSherpa加载文档。 |
|
使用Unstructured加载Markdown文件。 |
|
加载 Mastodon 的 'toots'。 |
|
从阿里云MaxCompute表中加载。 |
|
从XML文件加载MediaWiki转储。 |
|
从多个加载器中合并文档 |
|
|
使用BeautifulSoup解析MHTML文件。 |
从区块链智能合约加载元素。 |
|
从 Modern Treasury 加载。 |
|
加载MongoDB文档。 |
|
NeedleLoader 是一个用于管理存储在集合中的文档的文档加载器。 |
|
|
使用Unstructured从URL加载新闻文章。 |
加载 Jupyter notebook (.ipynb) 文件。 |
|
加载 Notion 目录 转储。 |
|
从Notion DB加载。 |
|
|
使用Nuclia Understanding API从任何文件类型加载。 |
从华为OBS目录加载。 |
|
从华为OBS文件加载。 |
|
从目录加载Obsidian文件。 |
|
使用Unstructured加载OpenOffice ODT文件。 |
|
从Microsoft OneDrive加载文档。 |
|
从Microsoft OneDrive加载文件。 |
|
从OneNote笔记本加载页面。 |
|
从Open City加载。 |
|
|
从oracle adb加载 |
使用 OracleDocLoader 读取文档 :param conn: Oracle 连接, :param params: 加载器参数。 |
|
读取文件 |
|
使用Oracle分块器分割文本。 |
|
解析Oracle文档元数据... |
|
使用Unstructured加载Org-Mode文件。 |
|
使用Azure OpenAI Whisper转录和解析音频文件。 |
|
使用faster-whisper转录和解析音频文件。 |
|
转录和解析音频文件。 |
|
|
使用OpenAI Whisper模型转录和解析音频文件。 |
转录和解析音频文件。 |
|
|
使用Azure文档智能(原表单识别器)加载PDF。 |
用于存储Document AI解析结果的数据类。 |
|
|
|
使用mime类型来解析blob的解析器。 |
|
使用 Grobid 加载文章 PDF 文件。 |
|
当Grobid服务器不可用时引发的异常。 |
|
使用Beautiful Soup解析HTML文件。 |
|
C语言的代码分段器。 |
|
|
COBOL 的代码分段器。 |
|
代码分段器的抽象类。 |
C++ 代码分段器。 |
|
|
C#代码分段器。 |
|
Elixir 代码分段器。 |
Go 代码分段器。 |
|
Java代码分段器。 |
|
|
JavaScript 代码分段器。 |
|
Kotlin 代码分段器。 |
|
使用相应的编程语言语法进行解析。 |
Lua代码分段器。 |
|
Perl 的代码分段器。 |
|
PHP 的代码分段器。 |
|
|
Python 的代码分段器。 |
Ruby代码分段器。 |
|
Rust代码分段器。 |
|
|
Scala代码分段器。 |
SQL代码分段器。 |
|
|
使用tree-sitter库的`CodeSegmenter`的抽象类。 |
|
TypeScript 的代码分段器。 |
解析来自blob的Microsoft Word文档。 |
|
将 PDF 文件发送到 Amazon Textract 并解析它们。 |
|
|
使用Azure文档智能(原表单识别器)加载PDF并在字符级别进行分块。 |
使用 PDFMiner 解析 PDF。 |
|
使用 PDFPlumber 解析 PDF。 |
|
使用 PyMuPDF 解析 PDF。 |
|
使用 pypdf 加载 PDF |
|
使用 PyPDFium2 解析 PDF。 |
|
用于解析文本块的解析器。 |
|
用于解析vsdx文件的解析器。 |
|
从本地文件系统、HTTP 或 S3 加载 PDF 文件。 |
|
|
PDF 文件的基础加载器类。 |
|
DedocPDFLoader 文档加载器集成,用于使用 dedoc 加载 PDF 文件。文件加载器可以自动检测 PDF 文档中文本层的正确性。请注意,__init__ 方法支持的参数与 DedocBaseLoader 的参数不同。 |
使用Azure文档智能加载PDF |
|
|
使用Mathpix服务加载PDF文件。 |
|
加载在线PDF。 |
|
使用 PDFMiner 加载 PDF 文件。 |
使用 PDFMiner 将 PDF 文件加载为 HTML 内容。 |
|
|
使用 pdfplumber 加载 PDF 文件。 |
|
|
|
使用 PyMuPDF 加载 PDF 文件。 |
使用 pypdf 加载包含 PDF 文件的目录,并在字符级别进行分块。 |
|
|
PyPDFLoader 文档加载器集成 |
|
使用 pypdfium2 加载 PDF 并在字符级别进行分块。 |
使用Unstructured加载PDF文件。 |
|
|
使用Zerox库的文档加载器:getomni-ai/zerox |
Pebblo Safe Loader 类是一个围绕文档加载器的包装器,使数据能够被审查。 |
|
文本数据的加载器。 |
|
|
加载 Polars 数据框。 |
|
使用Unstructured加载Microsoft PowerPoint文件。 |
从 Psychic.dev 加载。 |
|
从PubMed生物医学库加载。 |
|
|
加载 PySpark 数据框。 |
|
加载 Python 文件,如果指定了非默认编码,则尊重该编码。 |
|
加载 Quip 页面。 |
加载 ReadTheDocs 文档目录。 |
|
|
从根URL递归加载所有子链接。 |
加载Reddit帖子。 |
|
从目录加载Roam文件。 |
|
列未找到错误。 |
|
从Rockset数据库加载。 |
|
|
从RSpace笔记本、文件夹、文档或PDF图库文件中加载内容。 |
|
使用Unstructured从RSS源加载新闻文章。 |
使用Unstructured加载RST文件。 |
|
使用Unstructured加载RTF文件。 |
|
从Amazon AWS S3目录加载。 |
|
|
从Amazon AWS S3文件加载。 |
使用Scrapfly.io将URL转换为LLM可访问的Markdown。 |
|
使用ScrapingAnt将URL转换为LLM可访问的Markdown。 |
|
从 SharePoint 加载。 |
|
|
加载站点地图及其URL。 |
从Slack目录转储中加载。 |
|
从 Snowflake API 加载。 |
|
使用Spider AI将网页加载为文档。 |
|
从 Spreedly API 加载。 |
|
通过查询SQLAlchemy支持的数据库表来加载文档。 |
|
|
加载 .srt (字幕) 文件。 |
|
从Stripe API加载。 |
加载 SurrealDB 文档。 |
|
加载 Telegram 聊天 json 目录转储。 |
|
从Telegram聊天转储中加载。 |
|
|
从腾讯云COS目录加载。 |
从腾讯云COS文件加载。 |
|
|
从TensorFlow Dataset加载。 |
|
加载文本文件。 |
|
从TiDB加载文档。 |
使用 2markdown API 加载 HTML。 |
|
|
加载 TOML 文件。 |
|
从Trello看板加载卡片。 |
使用 Unstructured 加载 TSV 文件。 |
|
加载 Twitter 推文。 |
|
使用 Unstructured 的基础加载器。 |
|
使用Unstructured从远程URL加载文件。 |
|
所有评估器的抽象基类。 |
|
使用Playwright加载HTML页面并使用Unstructured解析。 |
|
|
使用unstructured库评估页面HTML内容。 |
使用 Selenium 加载 HTML 页面并使用 Unstructured 进行解析。 |
|
|
使用文件路径进行初始化。 |
使用Open Weather Map API加载天气数据。 |
|
WebBaseLoader 文档加载器集成 |
|
加载 WhatsApp 消息文本文件。 |
|
从Wikipedia加载。 |
|
使用 docx2txt 加载 DOCX 文件并在字符级别进行分块。 |
|
|
使用Unstructured加载Microsoft Word文件。 |
使用 Unstructured 加载 XML 文件。 |
|
加载 Xorbits 数据框。 |
|
通用的Google API客户端。 |
|
从YouTube频道加载所有视频。 |
|
YoutubeLoader 的转录输出格式。 |
|
|
加载 YouTube 视频字幕。 |
|
从Yuque加载文档。 |
函数
获取指定文件类型的MIME类型。 |
|
获取指定文件类型的MIME类型。 |
|
将消息信息组合成可读的格式,准备使用。 |
|
将消息信息组合成可读的格式,以便使用。 |
|
尝试检测文件编码。 |
|
将单元格信息组合成可读格式,准备使用。 |
|
递归地移除换行符,无论它们存储在何种数据结构中。 |
|
|
使用RapidOCR从图像中提取文本。 |
通过解析器名称获取解析器。 |
|
内容列的默认连接器。 |
|
将消息信息组合成可读格式,准备使用。 |
|
将字符串或字符串列表转换为带有元数据的文档列表。 |
|
从Unstructured API中检索元素列表。 |
|
|
检查已安装的Unstructured版本是否超过相关功能所需的最低版本。 |
|
如果Unstructured版本未超过指定的最小值,则引发错误。 |
将消息信息组合成可读格式,准备使用。 |
已弃用的类
document_transformers#
类
|
通过提取特定标签并移除不需要的标签来转换HTML内容。 |
|
使用 doctran 从文本文档中提取属性。 |
|
使用 doctran 从文本文档中提取问答。 |
|
使用 doctran 翻译文本文档。 |
|
对文档向量执行K-means聚类。 |
|
通过比较嵌入来过滤掉冗余文档的过滤器。 |
用替换字符串替换特定搜索模式的出现 |
|
|
重新排序长上下文。 |
|
使用markdownify库将HTML文档转换为Markdown格式,并提供可自定义的选项来处理链接、图像、其他标签和标题样式。 |
|
Nuclia 文本转换器。 |
使用OpenAI函数从文档内容中提取元数据标签。 |
函数
|
从BeautifulSoup元素中获取所有可导航的字符串。 |
|
将文档列表转换为带有状态的文档列表。 |
|
创建一个使用OpenAI函数链自动生成元数据的DocumentTransformer |
已弃用的类
嵌入#
类
|
Aleph Alpha 的非对称语义嵌入。 |
Aleph Alpha 语义嵌入的对称版本。 |
|
Anyscale 嵌入 API。 |
|
Ascend NPU 加速的嵌入模型 |
|
使用Awa DB嵌入文档和查询。 |
|
百川文本嵌入模型。 |
|
百度千帆嵌入模型。 |
|
Bookend AI 的 sentence_transformers 嵌入模型。 |
|
Clarifai 嵌入模型。 |
|
|
Cloudflare Workers AI 嵌入模型。 |
DashScope 嵌入模型。 |
|
Deep Infra 的嵌入推理服务。 |
|
EdenAI 嵌入。 |
|
Embaas的嵌入服务。 |
|
Embaas嵌入API的有效载荷。 |
|
对于相同的文本,总是返回相同嵌入向量的假嵌入模型。 |
|
假的嵌入模型。 |
|
Qdrant FastEmbedding 模型。 |
|
Google的PaLM嵌入API。 |
|
GPT4All 嵌入模型。 |
|
Gradient.ai 嵌入模型。 |
|
|
已弃用,TinyAsyncGradientEmbeddingClient 已被移除。 |
使用HuggingFace API嵌入文本。 |
|
围绕 sentence_transformers 嵌入模型的封装器。 |
|
腾讯混元嵌入模型API由腾讯提供。 |
|
用于infinity包的自托管嵌入模型。 |
|
|
用于嵌入Infinity的辅助工具。 |
优化的Infinity嵌入模型。 |
|
在Intel CPU和GPU上使用IPEX-LLM优化的BGE嵌入模型的封装器。 |
|
利用Itrex运行时来释放压缩NLP模型的性能。 |
|
Javelin AI Gateway 嵌入。 |
|
Jina 嵌入模型。 |
|
JohnSnowLabs 嵌入模型 |
|
LASER 语言无关的句子表示。 |
|
llama.cpp 嵌入模型。 |
|
Llamafile 允许你使用单个文件分发和运行大型语言模型。 |
|
LLMRails 嵌入模型。 |
|
LocalAI 嵌入模型。 |
|
MiniMax 嵌入模型集成。 |
|
MLflow中的Cohere嵌入LLMs。 |
|
在MLflow中嵌入LLMs。 |
|
MLflow AI Gateway 嵌入。 |
|
Model2Vec 嵌入模型。 |
|
ModelScopeHub 嵌入模型。 |
|
MosaicML 嵌入服务。 |
|
NCP ClovaStudio 嵌入 API。 |
|
NLP Cloud 嵌入模型。 |
|
OCI 认证类型作为枚举器。 |
|
OCI 嵌入模型。 |
|
OctoAI 计算服务嵌入模型。 |
|
OpenVNO BGE 嵌入模型。 |
|
OpenVINO 嵌入模型。 |
|
量化的双编码器嵌入模型。 |
|
获取嵌入 |
|
OVHcloud AI 端点嵌入。 |
|
Prem的嵌入API |
|
LLM 类的内容处理器。 |
|
自定义的Sagemaker推理端点。 |
|
SambaNova 嵌入模型。 |
|
在自托管的远程硬件上自定义嵌入模型。 |
|
|
在自托管的远程硬件上的HuggingFace嵌入模型。 |
|
在自托管的远程硬件上的HuggingFace InstructEmbedding模型。 |
通过spaCy模型生成的嵌入。 |
|
在头部组装过程中出现错误时引发的异常。 |
|
SparkLLM 嵌入模型集成。 |
|
|
用于解析URL的URL类。 |
TensorflowHub 嵌入模型。 |
|
text2vec 嵌入模型。 |
|
|
一个用于处理同步和异步请求到TextEmbed API的客户端。 |
一个用于处理向TextEmbed API发送嵌入请求的类。 |
|
|
用于推理的设备,cuda 或 cpu。 |
在初始化TitanTakeoffEmbed或嵌入请求时未提供消费者组时引发的异常。 |
|
用于在Takeoff中部署的读取器的配置。 |
|
用于与Takeoff Embedding类接口的自定义异常。 |
|
与Takeoff推理API接口,用于嵌入模型。 |
|
Volcengine Embeddings 嵌入模型。 |
|
Xinference 嵌入模型。 |
|
YandexGPT 嵌入模型。 |
|
ZhipuAI 嵌入模型集成。 |
函数
使用tenacity重试嵌入调用。 |
|
使用tenacity重试完成调用。 |
|
|
获取文件的字节字符串。 |
检查URL是否为本地文件。 |
|
使用tenacity重试嵌入调用。 |
|
使用tenacity重试嵌入调用。 |
|
使用tenacity重试完成调用。 |
|
|
通过向指定的URL发送GET请求来检查端点是否处于活动状态。 |
使用tenacity重试嵌入调用。 |
|
使用 tenacity 重试嵌入调用。 |
|
为PremAIEmbeddings创建一个重试装饰器。 |
|
|
使用tenacity进行嵌入调用的重试 |
|
加载嵌入模型。 |
使用tenacity重试完成调用。 |
|
使用tenacity重试嵌入调用。 |
已弃用的类
example_selectors#
类
根据ngram重叠分数(来自NLTK包的sentence_bleu分数)选择和排序示例。 |
函数
计算源和示例的ngram重叠分数,作为来自NLTK包的sentence_bleu分数。 |
graph_vectorstores#
类
函数
|
|
返回与文档对应的networkx有向图。 |
|
graphs#
类
|
用于图操作的Apache AGE封装器。 |
|
AGE查询的异常。 |
用于图操作的ArangoDB封装器。 |
|
|
用于图操作的FalkorDB封装器。 |
表示由节点和关系组成的图文档。 |
|
表示图中具有相关属性的节点。 |
|
表示图中两个节点之间的有向关系。 |
|
用于图操作的抽象类。 |
|
|
用于图操作的Gremlin封装器。 |
|
用于图操作的HugeGraph包装器。 |
创建图索引的功能。 |
|
|
用于图操作的Kùzu包装器。 |
|
用于图操作的Memgraph包装器。 |
|
用于图操作的NebulaGraph包装器。 |
Neptune 的抽象基类。 |
|
用于图操作的Neptune Analytics封装器。 |
|
|
用于图操作的Neptune封装器。 |
Neptune查询的异常。 |
|
用于RDF图操作的Neptune封装器。 |
|
图中的知识三元组。 |
|
用于实体图操作的Networkx封装器。 |
|
用于图操作的Ontotext GraphDB https://graphdb.ontotext.com/ 封装器。 |
|
|
用于图操作的RDFlib包装器。 |
用于图操作的TigerGraph封装器。 |
函数
从凭据中获取Arango DB客户端。 |
|
|
从实体字符串中提取实体。 |
从知识字符串中解析知识三元组。 |
已弃用的类
|
已弃用的函数
索引#
类
|
记录管理器的抽象基类。 |
llms#
类
AI21 大型语言模型。 |
|
AI21惩罚数据的参数。 |
|
Aleph Alpha 大型语言模型。 |
|
Amazon API Gateway 用于访问托管在 AWS 上的 LLM 模型。 |
|
适配器,用于将Langchain的输入准备为LLM模型期望的格式。 |
|
Anyscale 大型语言模型。 |
|
Aphrodite 语言模型。 |
|
Arcee的领域适应语言模型(DALMs)。 |
|
Aviary 托管的模型。 |
|
|
Aviary 后端。 |
Azure ML 在线端点模型。 |
|
Azure ML 端点 API 类型。 |
|
AzureML 托管终端客户端。 |
|
Azure ML 在线端点模型。 |
|
将AzureML端点的请求和响应转换为符合所需模式。 |
|
用于使用类似OpenAI API方案的模型的内容格式化器。 |
|
Dolly-v2-12b 模型的内容处理器 |
|
GPT2的内容处理器 |
|
用于HuggingFace目录中的LLMs的内容处理器。 |
|
已弃用:保留以向后兼容 |
|
已弃用:保留以向后兼容 |
|
百川大语言模型。 |
|
百度千帆完成模型集成。 |
|
Banana 大型语言模型。 |
|
Baseten 模型 |
|
用于gpt2大型语言模型的Beam API。 |
|
Bedrock 模型的基类。 |
|
适配器类,用于将Langchain的输入准备为LLM模型期望的格式。 |
|
BigdlLLM模型的封装器 |
|
NIBittensor 大语言模型 |
|
CerebriumAI 大型语言模型。 |
|
ChatGLM LLM 服务。 |
|
ChatGLM3 LLM 服务。 |
|
Clarifai 大型语言模型。 |
|
Cloudflare Workers AI 服务。 |
|
C Transformers LLM 模型。 |
|
CTranslate2 语言模型。 |
|
DeepInfra 模型。 |
|
Neural Magic DeepSparse LLM 接口。 |
|
EdenAI 模型。 |
|
ExllamaV2 API. |
|
用于测试的假LLM。 |
|
用于测试的假流式列表LLM。 |
|
ForefrontAI 大型语言模型。 |
|
Friendli 的基类。 |
|
Friendli 大语言模型。 |
|
GigaChat 大型语言模型 API。 |
|
GooseAI 大型语言模型。 |
|
GPT4All 语言模型。 |
|
Gradient.ai LLM 端点。 |
|
训练结果。 |
|
用户输入作为响应。 |
|
IpexLLM 模型。 |
|
Javelin AI Gateway 大语言模型。 |
|
Javelin AI Gateway LLM 的参数。 |
|
Kobold API 语言模型。 |
|
Konko AI 模型。 |
|
Layerup Security LLM 服务。 |
|
llama.cpp 模型。 |
|
Llamafile 允许你使用单个文件分发和运行大型语言模型。 |
|
HazyResearch 的 Manifest 库。 |
|
Minimax 大型语言模型。 |
|
Minimax 大语言模型的通用参数。 |
|
MLflow LLM 服务。 |
|
MLflow AI Gateway 大语言模型。 |
|
MLflow AI Gateway LLM 的参数。 |
|
MLX 管道 API。 |
|
Modal 大型语言模型。 |
|
Moonshot 大语言模型。 |
|
Moonshot LLMs 的通用参数。 |
|
MosaicML 大语言模型服务。 |
|
NLPCloud 大型语言模型。 |
|
|
用于在OCI数据科学模型部署上部署的LLM的基类。 |
|
部署在OCI数据科学模型部署上的LLM。 |
|
OCI 数据科学模型部署 TGI 端点。 |
|
VLLM 部署在 OCI 数据科学模型部署上 |
在进行推理时遇到服务器错误时引发。 |
|
|
当令牌过期时引发。 |
|
OCI 认证类型作为枚举器。 |
OCI 大型语言模型。 |
|
OCI GenAI 模型的基类 |
|
OctoAI LLM 端点 - 兼容 OpenAI。 |
|
当找不到Ollama端点时引发。 |
|
使用OpaquePrompts来清理提示的LLM。 |
|
基础 OpenAI 大语言模型类。 |
|
OpenAI兼容的API客户端,用于OpenLLM服务器 |
|
OpenLM 模型。 |
|
Outlines库的LLM包装器。 |
|
Langchain LLM 类,用于帮助访问 eass llm 服务。 |
|
Petals 开花模型。 |
|
PipelineAI 大型语言模型。 |
|
使用您的Predibase模型与Langchain。 |
|
PromptLayer OpenAI 大型语言模型。 |
|
PromptLayer OpenAI 大型语言模型。 |
|
Replicate 模型。 |
|
RWKV 语言模型。 |
|
用于将LLM的输入转换为SageMaker端点期望的格式的处理类。 |
|
LLM 类的内容处理器。 |
|
解析字节流输入。 |
|
Sagemaker 推理终端模型。 |
|
SambaNova 云大型语言模型。 |
|
SambaStudio 大型语言模型。 |
|
在自托管的远程硬件上进行模型推理。 |
|
HuggingFace Pipeline API 用于在自托管的远程硬件上运行。 |
|
Solar 大型语言模型。 |
|
Solar LLMs 的通用配置。 |
|
iFlyTek Spark 完成模型集成。 |
|
StochasticAI 大型语言模型。 |
|
Nebula 服务模型。 |
|
来自WebUI的文本生成模型。 |
|
|
用于推理的设备,cuda 或 cpu |
用于在Titan Takeoff API中部署的读取器的配置。 |
|
Titan Takeoff API 语言模型。 |
|
通义完成模型集成。 |
|
VLLM 语言模型。 |
|
vLLM OpenAI兼容的API客户端 |
|
VolcEngineMaas 模型的基类。 |
|
volc engine maas 托管了大量模型。 |
|
仅权重量化模型。 |
|
Writer 大型语言模型。 |
|
Xinference 大规模模型推理服务。 |
|
Yandex 大型语言模型。 |
|
Yi 大型语言模型。 |
|
围绕You.com的对话式智能和研究API的封装器。 |
|
Yuan2.0 语言模型。 |
函数
|
从选择和提示中创建LLMResult。 |
|
更新令牌使用情况。 |
|
从Aviary模型中获取补全。 |
列出可用的模型 |
|
|
使用 tenacity 重试完成调用。 |
|
使用tenacity重试完成调用。 |
获取默认的Databricks个人访问令牌。 |
|
获取默认的Databricks工作区主机名。 |
|
如果在 Databricks 笔记本中运行,获取笔记本 REPL 上下文。 |
|
|
使用tenacity重试完成调用。 |
使用tenacity重试完成调用。 |
|
使用tenacity重试流式调用的完成操作。 |
|
|
使用tenacity重试完成调用。 |
使用tenacity重试完成调用。 |
|
有条件地应用装饰器。 |
|
|
使用tenacity重试完成调用。 |
如果存在,从URL中删除尾部斜杠和/api。 |
|
|
默认的护栏违规处理程序。 |
|
从文件中加载LLM。 |
|
从配置字典加载LLM。 |
|
使用tenacity重试异步完成调用。 |
|
使用tenacity重试完成调用。 |
|
更新令牌使用情况。 |
使用tenacity重试完成调用。 |
|
|
从模型中生成文本。 |
从异步可迭代对象生成元素,并返回一个布尔值指示是否为最后一个元素。 |
|
|
stream_generate_with_retry 的异步版本。 |
检查来自完成调用的响应。 |
|
从可迭代对象生成元素,并返回一个布尔值指示是否为最后一个元素。 |
|
|
使用tenacity重试完成调用。 |
|
使用tenacity重试完成调用。 |
|
一旦出现任何停止词,立即切断文本。 |
|
使用tenacity重试完成调用。 |
|
使用tenacity重试完成调用。 |
|
如果模型名称是Codey模型,则返回True。 |
|
如果模型名称是Gemini模型,则返回True。 |
|
使用 tenacity 重试异步完成调用。 |
|
使用tenacity重试完成调用。 |
已弃用的类
memory#
类
知识图谱对话记忆。 |
|
由Motorhead服务支持的聊天消息内存。 |
|
将您的链历史记录持久化到Zep MemoryStore。 |
output_parsers#
类
将输出解析为Json对象的元素。 |
|
将输出解析为Json对象。 |
|
解析一个输出,该输出是值集合之一。 |
|
|
将输出解析为pydantic对象的属性。 |
|
将输出解析为pydantic对象。 |
使用Guardrails解析LLM调用的输出。 |
query_constructors#
类
将AstraDB内部查询语言元素转换为有效的过滤器。 |
|
将Chroma内部查询语言元素转换为有效的过滤器。 |
|
将内部查询语言元素转换为有效过滤器的逻辑。 |
|
|
将Databricks向量搜索内部查询语言元素转换为有效的过滤器。 |
将DeepLake内部查询语言元素转换为有效的过滤器。 |
|
将DingoDB内部查询语言元素转换为有效的过滤器。 |
|
将Elasticsearch内部查询语言元素转换为有效的过滤器。 |
|
将内部查询语言元素翻译为HANA向量存储的有效过滤器参数。 |
|
将Milvus内部查询语言元素转换为有效的过滤器。 |
|
将Mongo内部查询语言元素转换为有效的过滤器。 |
|
将MyScale内部查询语言元素转换为有效的过滤器。 |
|
将OpenSearch内部查询领域特定语言元素转换为有效的过滤器。 |
|
将PGVector内部查询语言元素转换为有效的过滤器。 |
|
将Pinecone内部查询语言元素转换为有效的过滤器。 |
|
将Qdrant内部查询语言元素转换为有效的过滤器。 |
|
用于将结构化查询转换为Redis过滤表达式的访问者。 |
|
将Langchain过滤器转换为Supabase PostgREST过滤器。 |
|
|
将StructuredQuery翻译为腾讯向量数据库查询。 |
|
将内部查询语言元素转换为有效的过滤器。 |
将Vectara内部查询语言元素转换为有效的过滤器。 |
|
将Weaviate内部查询语言元素转换为有效的过滤器。 |
函数
检查字符串是否可以转换为浮点数。 |
|
将值转换为字符串,如果它是字符串则添加双引号。 |
|
将值转换为字符串,如果是字符串则添加单引号。 |
已弃用的类
retrievers#
类
Arcee 领域适应语言模型 (DALMs) 检索器。 |
|
Arxiv 检索器。 |
|
AskNews 检索器。 |
|
Azure AI Search 服务检索器。 |
|
Azure Cognitive Search 服务检索器。 |
|
Amazon Bedrock 知识库检索器。 |
|
检索的配置。 |
|
向量搜索的配置。 |
|
BM25 检索器,无需 Elasticsearch。 |
|
一个用于Breebs的检索器类。 |
|
Chaindesk API 检索器。 |
|
ChatGPT 插件 检索器。 |
|
Databerry API 检索器。 |
|
DocArray 文档索引 检索器。 |
|
|
执行搜索类型的枚举器。 |
Dria 检索器使用 DriaAPIWrapper。 |
|
Elasticsearch 检索器,使用 BM25。 |
|
Embedchain 检索器。 |
|
|
Google Vertex Search API 检索器别名,用于向后兼容。 |
用于Kay.ai数据集的检索器。 |
|
额外的结果属性。 |
|
附加结果属性的值。 |
|
Amazon Kendra Index 检索器。 |
|
文档属性。 |
|
文档属性的值。 |
|
突出显示摘录中关键字的信息。 |
|
Amazon Kendra Query API 搜索结果。 |
|
查询API结果项。 |
|
结果项的基础类。 |
|
Amazon Kendra Retrieve API 搜索结果。 |
|
检索API结果项。 |
|
带有高亮的文本。 |
|
KNN 检索器。 |
|
LlamaIndex 图数据结构检索器。 |
|
LlamaIndex 检索器。 |
|
Metal API 检索器。 |
|
Milvus API 检索器。 |
|
`NanoPQ 检索器。 |
|
NeedleRetriever 根据搜索查询从 Needle 集合中检索相关文档或上下文。 |
|
Outline API 的检索器。 |
|
|
Pinecone 混合搜索 检索器。 |
PubMed API 检索器。 |
|
Rememberizer 检索器。 |
|
LangChain API 检索器。 |
|
SVM 检索器。 |
|
搜索深度作为枚举器。 |
|
Tavily 搜索 API 检索器。 |
|
TF-IDF 检索器。 |
|
使用ThirdAI的NeuralDB的文档检索器。 |
|
Vespa 检索器。 |
|
|
Weaviate 混合搜索 检索器。 |
用于编号问题列表的输出解析器。 |
|
搜索查询以研究用户的目标。 |
|
Google Search API 检索器。 |
|
Wikipedia API 检索器。 |
|
You.com 搜索 API 检索器。 |
|
|
要搜索哪些文档。 |
|
执行搜索类型的枚举器。 |
Zep 内存存储检索器。 |
|
Zep Cloud 内存存储检索器。 |
|
Zilliz API 检索器。 |
函数
|
清理来自Kendra的摘录。 |
将ResultItem的标题和摘要合并为一个字符串。 |
|
|
为上下文列表创建嵌入索引。 |
|
已弃用的 MilvusRetreiver。 |
|
为上下文列表创建嵌入索引。 |
从上下文列表中创建一个索引。 |
|
使用SHA256哈希文本。 |
|
|
为上下文列表创建嵌入索引。 |
|
已弃用的 ZillizRetreiver。 |
已弃用的类
storage#
类
|
DataStax AstraDB 数据存储的基类。 |
|
使用Cassandra作为后端的ByteStore实现。 |
|
使用MongoDB作为底层存储的BaseStore实现。 |
|
使用MongoDB作为底层存储的BaseStore实现。 |
|
使用Redis作为底层存储的BaseStore实现。 |
|
用于保存值的表。 |
|
基于SQL数据库的BaseStore接口。 |
使用Upstash Redis作为底层存储来存储原始字节的BaseStore实现。 |
函数
|
已弃用的类
|
|
|
|
|
工具#
类
用于应用程序操作的工具。 |
|
应用操作类型的枚举器。 |
|
应用程序操作的架构。 |
|
AINetwork 工具的基类。 |
|
|
操作类型作为枚举器。 |
用于所有者操作的工具。 |
|
所有者操作的架构。 |
|
用于所有者操作的工具。 |
|
所有者操作的架构。 |
|
用于转账操作的工具。 |
|
用于传输操作的架构。 |
|
用于值操作的工具。 |
|
值操作的架构。 |
|
Amadeus 的基础工具。 |
|
用于查找特定位置最近的机场的工具。 |
|
AmadeusClosestAirport工具的Schema。 |
|
用于在两个机场之间搜索单个航班的工具。 |
|
AmadeusFlightSearch工具的Schema。 |
|
Arxiv工具的输入。 |
|
用于搜索Arxiv API的工具。 |
|
用于搜索AskNews API的工具。 |
|
AskNews 搜索工具的输入。 |
|
|
HuggingFace 文本转语音模型推理。 |
|
查询Azure AI服务文档智能API的工具。 |
|
查询Azure AI服务图像分析API的工具。 |
|
查询Azure AI服务语音转文本API的工具。 |
|
用于查询Azure AI服务健康文本分析API的工具。 |
|
查询Azure AI服务文本转语音API的工具。 |
|
用于查询Azure认知服务表单识别器API的工具。 |
|
查询Azure认知服务图像分析API的工具。 |
|
查询Azure认知服务Speech2Text API的工具。 |
|
查询Azure认知服务Text2Speech API的工具。 |
|
用于查询Azure认知服务文本分析健康API的工具。 |
用于在沙盒环境中评估Python代码的工具。 |
|
BearlyInterpreterTool 的参数。 |
|
关于要上传的文件的信息。 |
|
Bing 搜索工具。 |
|
查询Bing搜索API的工具。 |
|
查询BraveSearch的工具。 |
|
用于与Apache Cassandra数据库交互的基础工具。 |
|
|
用于获取Apache Cassandra数据库中keyspace的模式的工具。 |
|
用于从Apache Cassandra数据库中的表中获取数据的工具。 |
用于使用提供的CQL查询Apache Cassandra数据库的工具。 |
|
查询Clickup API的工具。 |
|
使用Cogniswitch服务来回答问题的工具。 |
|
使用Cogniswitch服务从文件中存储数据的工具。 |
|
使用Cogniswitch服务从URL存储数据的工具。 |
|
使用Cogniswitch服务获取的工具 |
|
Connery 动作模型。 |
|
Connery 动作参数模型。 |
|
Connery 操作参数验证模型。 |
|
用于与Connery Runner API交互的服务。 |
|
Connery 动作工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
查询DataForSeo Google搜索API并返回json的工具。 |
|
查询DataForSeo Google搜索API的工具。 |
|
使用Dataherald SDK进行查询的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
DuckDuckGo 搜索工具的输入。 |
|
查询DuckDuckGo搜索API并以output_format返回结果的工具。 |
|
DuckDuckGo 工具。 |
|
用于在沙盒环境中运行Python代码以进行数据分析的工具。 |
|
E2BDataAnalysisTool 的参数。 |
|
上传路径的描述及其远程路径。 |
|
遍历AST并输出抽象语法的源代码;原始格式被忽略。 |
|
查询Eden AI语音转文本API的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
查询Eden AI文本转语音API的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
所有EdenAI工具的基础工具。 |
|
查询Eden AI显式图像检测的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
|
查询Eden AI对象检测API的工具。 |
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
查询Eden AI身份解析API的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
查询Eden AI发票解析API的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
查询Eden AI显式文本检测的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
可用于Eleven Labs文本转语音的模型。 |
|
可用于Eleven Labs Text2Speech的模型。 |
|
查询 Eleven Labs Text2Speech API 的工具。 |
|
用于获取与输入问题相关的示例SQL查询的工具。 |
|
用于复制文件的工具。 |
|
CopyFileTool 的输入。 |
|
删除文件的工具。 |
|
DeleteFileTool 的输入。 |
|
FileSearchTool 的输入。 |
|
在子目录中搜索与正则表达式模式匹配的文件的工具。 |
|
ListDirectoryTool 的输入。 |
|
列出指定文件夹中的文件和目录的工具。 |
|
MoveFileTool 的输入。 |
|
用于移动文件的工具。 |
|
ReadFileTool 的输入。 |
|
读取文件的工具。 |
|
用于文件系统工具的Mixin。 |
|
根目录之外的路径错误。 |
|
WriteFileTool 的输入。 |
|
将文件写入磁盘的工具。 |
|
获取给定股票代码在给定期间的资产负债表的工具。 |
|
BalanceSheets的输入。 |
|
|
获取给定股票代码在给定期间的现金流量表的工具。 |
|
现金流量表的输入。 |
获取给定股票代码在给定期间的收入报表的工具。 |
|
|
IncomeStatements 的输入。 |
用于与GitHub API交互的工具。 |
|
用于与GitLab API交互的工具。 |
|
Gmail工具的基类。 |
|
CreateDraftTool 的输入。 |
|
用于创建Gmail草稿邮件的工具。 |
|
通过ID从Gmail获取消息的工具。 |
|
GetMessageTool 的输入。 |
|
GetMessageTool 的输入。 |
|
通过ID从Gmail获取线程的工具。 |
|
在Gmail中搜索消息或线程的工具。 |
|
|
用于搜索的资源枚举器。 |
SearchGmailTool 的输入。 |
|
向Gmail发送消息的工具。 |
|
SendMessageTool 的输入。 |
|
该工具增加了使用Golden API进行查询并返回JSON的能力。 |
|
GoogleBooksQuery工具的输入。 |
|
搜索Google Books API的工具。 |
|
查询Google Finance API的工具。 |
|
查询Google Jobs API的工具。 |
|
查询Google Lens API的工具。 |
|
GooglePlacesTool 的输入。 |
|
用于查询Google搜索API的工具。 |
|
查询Serper.dev Google搜索API并返回json的工具。 |
|
查询Serper.dev Google搜索API的工具。 |
|
查询Google趋势API的工具。 |
|
用于查询GraphQL API的基础工具。 |
|
向用户请求输入的工具。 |
|
IFTTT Webhook. |
|
Jina搜索工具的输入。 |
|
查询JinaSearch的工具。 |
|
查询Atlassian Jira API的工具。 |
|
用于获取JSON规范中的值的工具。 |
|
用于列出JSON规范中的键的工具。 |
|
JSON 规范的基类。 |
|
训练语言模型的工具。 |
|
|
可训练语言模型的协议。 |
搜索Merriam-Webster API的工具。 |
|
初始化工具。 |
|
UpdateSessionTool 的输入。 |
|
关闭具有提供字段的现有Multion浏览器窗口的工具。 |
|
CreateSessionTool 的输入。 |
|
创建一个带有提供字段的新Multion浏览器窗口的工具。 |
|
用于更新现有Multion浏览器窗口的工具,提供所需字段。 |
|
UpdateSessionTool 的输入。 |
|
查询Atlassian Jira API的工具。 |
|
Nuclia 理解 API 的输入。 |
|
用于使用Nuclia Understanding API处理文件的工具。 |
|
Office 365工具的基础类。 |
|
|
SendMessageTool 的输入。 |
用于在Office 365中创建草稿邮件的工具。 |
|
在Office 365中搜索日历事件。 |
|
SearchEmails工具的输入。 |
|
在Office 365中搜索电子邮件。 |
|
SearchEmails工具的输入。 |
|
用于在Office 365中发送日历事件的工具。 |
|
CreateEvent 工具的输入。 |
|
在Office 365中发送电子邮件。 |
|
SendMessageTool 的输入。 |
|
|
使用OpenAI DALLE生成图像的工具。 |
单个API操作的模型。 |
|
用于查询、路径、头信息或cookie参数中的属性模型。 |
|
API属性的基础模型。 |
|
属性的位置。 |
|
请求体的模型。 |
|
请求体属性的模型。 |
|
查询OpenWeatherMap API的工具。 |
|
查询Passio Nutrition AI API的工具。 |
|
Passio Nutrition AI 工具的输入。 |
|
浏览器工具的基础类。 |
|
用于点击具有给定CSS选择器的元素的工具。 |
|
ClickTool的输入。 |
|
用于获取当前网页URL的工具。 |
|
CurrentWebPageTool 的显式无参数输入。 |
|
提取页面上的所有超链接。 |
|
|
ExtractHyperlinksTool 的输入。 |
用于提取当前网页上所有文本的工具。 |
|
ExtractTextTool 的显式无参数输入。 |
|
用于获取当前网页中与CSS选择器匹配的元素的工具。 |
|
GetElementsTool的输入。 |
|
用于导航浏览器到URL的工具。 |
|
NavigateToolInput 的输入。 |
|
导航回浏览器历史记录中的上一页。 |
|
NavigateBackTool 的显式无参数输入。 |
|
AI 插件定义。 |
|
用于获取AI插件的OpenAPI规范的工具。 |
|
AIPluginTool的架构。 |
|
API 配置。 |
|
从Polygon获取给定日期范围内给定股票代码的聚合柱状图(股票价格)的工具。 |
|
PolygonAggregates 的输入。 |
|
Polygon 财务 API 的输入 |
|
从Polygon获取股票代码财务数据的工具 |
|
Polygon的Last Quote API的输入 |
|
从Polygon获取股票代码的最后报价的工具 |
|
Polygon的Ticker新闻API的输入 |
|
从Polygon获取给定股票代码的最新新闻的工具 |
|
用于获取PowerBI数据集元数据的工具。 |
|
用于获取表名的工具。 |
|
用于查询Power BI数据集的工具。 |
|
用于搜索PubMed API的工具。 |
|
用于查询子论坛帖子的工具。 |
|
Reddit搜索的输入。 |
|
请求工具的基类。 |
|
用于向API端点发出DELETE请求的工具。 |
|
用于向API端点发出GET请求的工具。 |
|
用于向API端点发出PATCH请求的工具。 |
|
用于向API端点发出POST请求的工具。 |
|
用于向API端点发出PUT请求的工具。 |
|
一个通过Riza的代码解释器API执行JavaScript的工具实现。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
Riza 代码工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
SceneXplain 的输入。 |
|
解释图像的工具。 |
|
查询SearchApi.io搜索API并返回JSON的工具。 |
|
查询SearchApi.io搜索API的工具。 |
|
SearxSearch工具的输入。 |
|
查询Searx实例并返回json的工具。 |
|
查询Searx实例的工具。 |
|
用于搜索semanticscholar API的工具。 |
|
SemanticScholar工具的输入。 |
|
Bash Shell 工具的命令。 |
|
用于运行 shell 命令的工具。 |
|
Slack工具的基类。 |
|
获取Slack频道信息的工具。 |
|
获取Slack消息的工具。 |
|
SlackGetMessages 的输入模式。 |
|
ScheduleMessageTool 的输入。 |
|
用于在Slack中安排消息的工具。 |
|
SendMessageTool 的输入。 |
|
用于在Slack中发送消息的工具。 |
|
CopyFileTool 的输入。 |
|
添加睡眠功能的工具。 |
|
用于与Spark SQL交互的基础工具。 |
|
用于获取Spark SQL元数据的工具。 |
|
用于获取表名的工具。 |
|
使用LLM检查查询是否正确。 |
|
用于查询Spark SQL的工具。 |
|
用于与SQL数据库交互的基础工具。 |
|
用于获取SQL数据库元数据的工具。 |
|
用于获取表名的工具。 |
|
使用LLM来检查查询是否正确。 |
|
用于查询SQL数据库的工具。 |
|
使用 StackExchange 的工具 |
|
用于搜索Steam Web API的工具。 |
|
支持的图像生成模型。 |
|
|
用于从文本提示生成图像的工具。 |
查询Tavily搜索API并获取答案的工具。 |
|
Tavily工具的输入。 |
|
查询Tavily搜索API并返回json的工具。 |
|
使用 VectorStore 的工具的基类。 |
|
用于VectorDBQA链的工具。 |
|
用于VectorDBQAWithSources链的工具。 |
|
搜索Wikidata API的工具。 |
|
WikipediaQuery工具的输入。 |
|
搜索维基百科API的工具。 |
|
使用Wolfram Alpha SDK进行查询的工具。 |
|
YahooFinanceNews工具的输入。 |
|
用于在雅虎财经上搜索财经新闻的工具。 |
|
you.com 工具的输入模式。 |
|
用于搜索 you.com API 的工具。 |
|
用于查询YouTube的工具。 |
|
返回与当前用户(与设置的api_key相关联)关联的所有公开(启用)操作的列表。 |
|
执行由action_id标识的操作,必须暴露 |
|
|
|
|
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
初始化工具。 |
函数
|
使用AIN区块链进行身份验证 |
使用Amadeus API进行身份验证 |
|
检测文件是本地还是远程的。 |
|
从URL下载音频到本地。 |
|
|
检测文件是本地还是远程的。 |
|
从URL下载音频到本地。 |
将文件转换为base64。 |
|
|
获取文件的前n行。 |
|
从字符串中去除Markdown代码。 |
已弃用。 |
|
如果最后一行缺少打印语句,则添加打印语句。 |
|
对序列中的每个项目调用f,并在其间调用inter()。 |
|
解析文件并漂亮地打印输出。 |
|
|
解析相对路径,如果不在根目录内则引发错误。 |
检查路径是否相对于根目录。 |
|
构建一个Gmail服务。 |
|
清理邮件正文。 |
|
获取凭证。 |
|
导入谷歌库。 |
|
导入 googleapiclient.discovery.build 函数。 |
|
导入InstalledAppFlow类。 |
|
用于向用户请求输入的工具。 |
|
使用 Microsoft Graph API 进行身份验证 |
|
清理消息或事件的正文。 |
|
懒加载导入 playwright 浏览器。 |
|
异步获取浏览器的当前页面。 |
|
|
创建一个异步的playwright浏览器。 |
|
创建一个playwright浏览器。 |
获取浏览器的当前页面。 |
|
运行一个异步协程。 |
|
将 yaml 或 json 序列化的规范转换为字典。 |
|
使用Slack API进行身份验证。 |
|
|
将块上传到签名URL并返回公共URL。 |
已弃用的类
实用工具#
类
用于货币汇率的AlphaVantage API封装器。 |
|
Apify的封装器。 |
|
Arcee 文档。 |
|
Arcee文档的适配器 |
|
Arcee 文档的来源。 |
|
|
Arcee API 可用的路由作为枚举器。 |
|
Arcee API 的封装器。 |
可用于DALM检索和生成的过滤器。 |
|
|
DALM检索可用的过滤器类型作为枚举器。 |
ArxivAPI的封装器。 |
|
AskNews API 的封装器。 |
|
|
AstraDBEnvironment 的设置模式作为枚举器。 |
AWS Lambda SDK 的封装器。 |
|
围绕 bibtexparser 的封装器。 |
|
Bing Web Search API 的封装器。 |
|
Brave 搜索引擎的封装器。 |
|
|
|
Apache Cassandra® 数据库封装器。 |
|
数据库模式错误引发的异常。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
|
列表的组件类。 |
Clickup API的封装器。 |
|
所有组件的基类。 |
|
|
成员组件类。 |
|
空间的组件类。 |
|
任务的类。 |
|
团队的组件类。 |
OpenAI的DALL-E图像生成器的封装器。 |
|
DataForSeo API 的封装器。 |
|
Dataherald的封装器。 |
|
|
Dria API 的封装器。 |
DuckDuckGo 搜索 API 的封装器。 |
|
金融数据集API的封装器。 |
|
GitHub API 的封装器。 |
|
GitLab API 的封装器。 |
|
Golden的封装器。 |
|
Google Books API 的封装器。 |
|
SerpApi的Google Finance API的封装器 |
|
SerpApi的Google Scholar API的封装器 |
|
SerpApi的Google Lens API的封装器 |
|
Google Scholar API 的封装器 |
|
Serper.dev Google 搜索 API 的封装器。 |
|
SerpApi的Google Scholar API的封装器 |
|
GraphQL API 的封装器。 |
|
Infobip API 的封装器,用于消息传递。 |
|
Jina 搜索引擎的封装器。 |
|
Jira API 的封装器。 |
|
用于查询阿里云MaxCompute表的接口。 |
|
Merriam-Webster的封装器。 |
|
Metaphor Search API 的封装器。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
NASA API 的封装器。 |
|
|
|
|
包含流式音频的消息。 |
|
|
|
|
|
|
一个可运行的组件,使用NVIDIA Riva执行自动语音识别(ASR)。 |
|
Riva音频编码的可能选择的枚举。 |
|
用于Riva服务连接的身份验证配置。 |
|
一组常见的Riva设置。 |
|
一个可运行的类,用于使用NVIDIA Riva进行文本到语音(TTS)转换。 |
|
一个空的 Sentinel 类型。 |
|
|
HTTP动词的枚举器。 |
OpenAPI 模型,用于移除规范中格式错误的部分。 |
|
使用 PyOWM 的 OpenWeatherMap API 封装器。 |
|
|
获取摘要 :param conn: Oracle 连接, :param params: 摘要参数, :param proxy: 代理 |
OutlineAPI的封装器。 |
|
管理NutritionAI API的令牌。 |
|
用于防止存储到磁盘的混入类。 |
|
Passio Nutrition AI API 的封装器。 |
|
Pebblo AI 应用程序。 |
|
Pebblo 文档。 |
|
Pebblo 框架实例。 |
|
Pebblo 索引文档。 |
|
Pebblo Loader API 的封装器。 |
|
|
Pebblo API 可用的路由作为枚举器。 |
Pebblo 运行时。 |
|
Polygon API 的封装器。 |
|
Portkey 配置。 |
|
从数据集ID和凭据或令牌创建PowerBI引擎。 |
|
PubMed API 的封装器。 |
|
Reddit API 的封装器 |
|
|
转义输入字符串中的标点符号。 |
Rememberizer API 的封装器。 |
|
围绕requests库的轻量级封装。 |
|
轻量级的请求库封装,支持异步操作。 |
|
围绕请求的包装器,用于处理认证和异步操作。 |
|
轻量级的请求库封装,支持异步操作。 |
|
SceneXplain API 的封装器。 |
|
SearchApi API 的封装器。 |
|
围绕搜索API结果的字典式包装器。 |
|
Searx API 的封装器。 |
|
围绕semanticscholar.org API的封装器。 |
|
用于隐藏打印的上下文管理器。 |
|
SerpAPI的封装器。 |
|
|
SparkSQL 是一个用于与 Spark SQL 交互的工具类。 |
|
SQLAlchemy 数据库的封装。 |
Stack Exchange API 的封装器。 |
|
Steam API 的封装器。 |
|
Tavily 搜索 API 的封装器。 |
|
访问 TensorFlow 数据集。 |
|
使用Twilio的消息客户端。 |
|
围绕Wikidata API的封装器。 |
|
围绕WikipediaAPI的封装器。 |
|
Wolfram Alpha 的封装器。 |
|
来自 you.com API 的输出。 |
|
解析一个片段的输出。 |
|
来自 you.com 的单个命中结果,可能包含多个片段 |
|
来自you.com的单个点击的元数据 |
|
you.com 搜索和新闻 API 的封装器。 |
|
Zapier NLA的封装器。 |
函数
获取文本字符串中的令牌数量。 |
|
获取文本字符串的令牌ID。 |
|
|
异步执行CQL查询。 |
将Cassandra响应未来包装在asyncio未来中。 |
|
|
从字典中提取元素。 |
|
从URL获取数据。 |
|
从字典中获取第一个id。 |
|
获取文件夹ID。 |
|
获取列表ID。 |
|
获取空间ID。 |
|
获取团队ID。 |
|
解析一个JSON字符串并返回解析后的对象。 |
通过创建一个组件然后将其转换回字典来解析字典。 |
|
从脱敏文本中恢复原始的敏感数据。 |
|
通过用占位符替换敏感数据来清理输入字符串或字符串字典。 |
|
检查HTTP响应是否可重试。 |
|
计算内容大小(以字节为单位): - 使用特定编码(例如,UTF-8)将字符串编码为字节 - 获取编码后字节的长度。 |
|
根据page_content大小生成文档批次。 |
|
获取本地文件路径的所有者。 |
|
返回本地文件/目录的绝对路径,对于网络相关路径,按原样返回。 |
|
获取本地运行时的IP地址。 |
|
返回基于Document中存在的键的加载器源的绝对路径。 |
|
|
返回加载器类型,可能是文件、目录或内存中的。 |
获取当前的框架和运行时详细信息。 |
|
|
获取源路径的大小。 |
在包含空格的表名周围添加单引号。 |
|
|
将JSON对象转换为Markdown表格。 |
检查是否安装了正确的Redis模块。 |
|
|
从给定的连接URL获取一个redis客户端。 |
|
根据最大字符串长度,将字符串截断为一定数量的单词。 |
为 Vertex / Palm LLMs 创建一个重试装饰器。 |
|
|
返回一个自定义的用户代理头。 |
|
初始化 Vertex AI。 |
从Google Cloud Storage加载图像。 |
|
抛出与Vertex SDK不可用相关的ImportError。 |
已弃用的类
utils#
类
表示可调用Ernie API的函数。 |
|
表示可调用Ernie API的函数。 |
函数
|
将Pydantic模型转换为Ernie API的函数描述。 |
将Pydantic模型转换为Ernie API的函数描述。 |
|
|
返回一个自定义的用户代理头。 |
两个等宽矩阵之间的行余弦相似度。 |
|
|
行间余弦相似度,带有可选的 top-k 和分数阈值过滤。 |
返回OpenAI API是否为v1或更高版本。 |
|
从环境变量中获取用户代理。 |
vectorstores#
类
|
Aerospike 向量存储。 |
|
Alibaba Cloud OpenSearch 向量存储。 |
|
阿里云Opensearch客户端配置。 |
|
AnalyticDB (分布式 PostgreSQL) 向量存储。 |
|
Annoy 向量存储。 |
|
Apache Doris 向量存储。 |
Apache Doris 客户端配置。 |
|
|
创建一个由ApertureDB支持的向量存储 |
|
Atlas 向量存储。 |
|
AwaDB 向量存储。 |
Azure Cosmos DB for MongoDB vCore 向量存储。 |
|
Cosmos DB 相似度类型作为枚举器。 |
|
|
Cosmos DB 向量搜索类型作为枚举器。 |
|
Azure Cosmos DB for NoSQL 向量存储。 |
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
|
CosmosDB 查询类型 |
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
|
Azure Cognitive Search 向量存储。 |
使用Azure Cognitive Search的检索器。 |
|
|
|
百度Elasticsearch 向量存储。 |
|
百度 VectorDB 作为向量存储。 |
|
百度 VectorDB 连接参数。 |
|
|
百度 VectorDB 表参数。 |
|
用于向量存储工作负载的Apache Cassandra(R)。 |
|
Clarifai AI 向量存储。 |
|
ClickHouse 向量存储集成。 |
ClickHouse 客户端配置。 |
|
DashVector 向量存储。 |
|
Activeloop Deep Lake 向量存储。 |
|
|
Dingo 向量存储。 |
DocArray 基于向量存储的基类。 |
|
HnswLib 存储使用 DocArray 包。 |
|
用于精确搜索的内存中的DocArray存储。 |
|
DocumentDB 相似度类型作为枚举器。 |
|
Amazon DocumentDB (与MongoDB兼容) 向量存储。 |
|
|
DuckDB 向量存储。 |
ecloud Elasticsearch 向量存储。 |
|
Elasticsearch 检索策略的基类。 |
|
|
Epsilla 向量数据库的封装。 |
|
FAISS 向量存储集成。 |
FalkorDB 向量索引。 |
|
索引类型的枚举器。 |
|
用于FalkorDB VectorStore中不同搜索策略的枚举器。 |
|
|
SAP HANA 云向量引擎 |
|
Hippo 向量存储。 |
|
Hologres API 向量存储。 |
Infinispan REST 接口的辅助类。 |
|
Infinispan 向量存储接口。 |
|
|
Jaguar API 向量存储。 |
|
KDB.AI 向量存储。 |
|
一些已知嵌入的默认维度。 |
距离策略的枚举器。 |
|
|
Kinetica 向量存储。 |
Kinetica 客户端配置。 |
|
|
LanceDB 向量存储。 |
Lantern 嵌入存储的基类。 |
|
距离策略的枚举器。 |
|
|
Postgres 使用 lantern 扩展作为向量存储。 |
查询结果。 |
|
使用LLMRails实现的向量存储。 |
|
LLMRails的检索器。 |
|
ManticoreSearch 引擎 向量存储。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |
|
|
Marqo 向量存储。 |
|
Meilisearch 向量存储。 |
Momento Vector Index (MVI) 向量存储。 |
|
|
MyScale 向量存储。 |
MyScale 客户端配置。 |
|
没有元数据列的MyScale向量存储 |
|
|
NucliaDB 向量存储。 |
|
Amazon OpenSearch 向量引擎 向量存储。 |
|
OracleVS 向量存储。 |
连接到Pathway向量存储的VectorStore。 |
|
|
所有SQL存储的基础模型。 |
集合存储。 |
|
|
嵌入存储。 |
|
Postgres 使用 pg_embedding 扩展作为向量存储。 |
查询结果。 |
|
|
由pgvecto_rs支持的VectorStore。 |
|
SQL存储的基础模型。 |
距离策略的枚举器。 |
|
Qdrant 相关的异常。 |
|
用于 Redis VectorStore 的检索器。 |
|
RedisFilterFields 的集合。 |
|
RedisFilterFields的逻辑表达式。 |
|
RedisFilterFields 的基类。 |
|
RedisFilterOperator 枚举器用于创建 RedisFilterExpressions。 |
|
表示Redis索引中数字字段的RedisFilterField。 |
|
表示Redis索引中标签的RedisFilterField。 |
|
RedisFilterField 表示 Redis 索引中的文本字段。 |
|
Redis中平面向量字段的模式。 |
|
Redis中HNSW向量字段的模式。 |
|
Redis中数字字段的模式。 |
|
Redis向量字段的距离度量。 |
|
Redis字段的基类。 |
|
Redis索引的架构。 |
|
Redis 向量字段的基类。 |
|
Redis中标签字段的模式。 |
|
Redis中文本字段的模式。 |
|
|
Relyt (分布式 PostgreSQL) 向量存储。 |
|
Rockset 向量存储。 |
|
ScaNN 向量存储。 |
|
SemaDB 向量存储。 |
SingleStore DB 向量存储。 |
|
|
用于序列化数据的基类。 |
|
使用bson python包将数据序列化为二进制JSON。 |
|
使用Python标准库中的json包将数据序列化为JSON格式。 |
使用pyarrow包将数据序列化为Apache Parquet格式。 |
|
基于scikit-learn库NearestNeighbors的简单内存向量存储。 |
|
由SKLearnVectorStore引发的异常。 |
|
|
使用Vec扩展的SQLite作为向量数据库。 |
|
使用VSS扩展的SQLite作为向量数据库。 |
|
StarRocks 向量存储。 |
StarRocks 客户端配置。 |
|
Supabase Postgres 向量存储。 |
|
SurrealDB 作为向量存储。 |
|
Tablestore 向量存储。 |
|
|
Tair 向量存储。 |
腾讯向量数据库连接参数。 |
|
腾讯向量数据库索引参数。 |
|
腾讯向量数据库的元数据字段。 |
|
腾讯 VectorDB 作为向量存储。 |
|
使用ThirdAI的NeuralDB企业版Python客户端进行NeuralDBs的向量存储。 |
|
使用ThirdAI的NeuralDB的向量存储。 |
|
TiDB 向量存储。 |
|
|
Tigris 向量存储。 |
|
TileDB 向量存储。 |
Timescale Postgres 向量存储 |
|
|
Typesense 向量存储。 |
Upstash 向量存储 |
|
|
USearch 向量存储。 |
|
用于计算向量之间距离的距离策略的枚举器。 |
|
Vald 向量数据库。 |
|
英特尔实验室的VDMS用于向量存储工作负载。 |
|
初始化 vearch 向量存储标志 1 表示集群,0 表示独立 |
|
最大边际相关性(MMR)搜索的配置。 |
重新排序器的配置。 |
|
摘要生成的配置。 |
|
|
Vectara API 向量存储。 |
|
Vectara查询的配置。 |
|
Vectara RAG 可运行对象。 |
Vectara 检索器类。 |
|
|
Vespa 向量存储。 |
|
vikingdb 作为向量存储 |
|
vikingdb 连接配置 |
|
VLite 是一个简单且快速的向量数据库,用于语义搜索。 |
|
Weaviate 向量存储。 |
|
Xata 向量存储。 |
|
Yellowbrick 作为向量数据库。 |
|
Zep Collection的配置。 |
|
Zep 向量存储。 |
Zep 向量存储。 |
|
|
Zilliz 向量存储。 |
函数
|
从字段创建元数据。 |
如果可用则导入annoy,否则抛出错误。 |
|
|
检查字符串是否包含多个子字符串。 |
如果可用则导入faiss,否则抛出错误。 |
|
|
通过直接将过滤值注入查询来构建元数据过滤器。 |
将字典转换为类似YAML的字符串,而不使用外部库。 |
|
处理嵌套的实体数据列表,以提取有关标签、实体类型、属性、索引类型和索引详细信息(如果适用)的信息。 |
|
导入 lancedb 包。 |
|
将字典过滤器转换为LanceDB过滤器字符串。 |
|
获取嵌入存储类。 |
|
|
检查字符串是否包含多个子字符串。 |
|
在向量存储上创建索引。 |
如果存在索引,则删除它。 |
|
删除表并将其从数据库中清除。 |
|
如果异步方法未实现,则调用类的同步方法的装饰器。 |
|
检查Redis索引是否存在。 |
|
用于检查等式运算符滥用的装饰器。 |
|
从字典或yaml文件中读取索引模式。 |
|
如果可用则导入scann,否则抛出错误。 |
|
将向量归一化为单位长度。 |
|
将浮点数列表序列化为紧凑的“原始字节”格式 |
|
如果DEBUG为True,则打印调试信息。 |
|
从查询中获取一个命名结果。 |
|
|
检查字符串是否包含多个子字符串。 |
将LangChain过滤器转换为腾讯VectorDB过滤器。 |
|
如果可用,导入tiledb-vector-search,否则抛出错误。 |
|
获取文档数组的URI。 |
|
|
从组中获取文档数组的URI。 |
获取向量索引的URI。 |
|
获取向量索引的URI。 |
|
如果可用则导入usearch,否则抛出错误。 |
|
过滤掉向量存储不支持的元数据类型。 |
|
计算最大边际相关性。 |
|
|
VDMS服务器的VDMS客户端。 |
|
将嵌入转换为字节。 |
已弃用的类
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
已弃用的函数