langchain_community
0.2.0¶
langchain_community.adapters
¶
适配器 用于将LangChain模型适配到其他API。
LangChain与许多模型提供商集成。 虽然LangChain有自己的消息和模型API, 但LangChain还通过公开一个 适配器 来将LangChain模型适配到其他API(如OpenAI API)中,使探索其他模型变得尽可能简单。
Classes¶
聊天。 |
|
聊天完成。 |
|
聊天完成块。 |
|
聊天完成。 |
|
选择。 |
|
选择块。 |
|
完成。 |
|
允许BaseModel通过字符串变量索引返回其字段。 |
Functions¶
|
异步版本的enumerate函数。 |
将字典转换为LangChain消息。 |
|
将LangChain消息转换为字典。 |
|
将消息转换为用于微调的列表列表字典。 |
|
|
将表示OpenAI消息的字典转换为LangChain格式。 |
langchain_community.agent_toolkits
¶
工具包 是一组工具,可用于与各种服务和API进行交互。
Classes¶
与AINetwork区块链进行交互的工具包。 |
|
与提供旅行API的Amadeus进行交互的工具包。 |
|
Azure AI服务工具包。 |
|
|
Azure认知服务工具包。 |
|
与Apache Cassandra数据库交互的工具包。 |
点击工具包。 |
|
CogniSwitch工具包。 |
|
工具包,其中包含康纳利动作列表作为工具。 |
|
|
用于与本地文件交互的工具包。 |
需要分支名称作为输入的操作的模式。 |
|
需要评论作为输入的操作的模式。 |
|
需要文件路径和内容作为输入的操作的模式。 |
|
需要PR标题和正文作为输入的操作模式。 |
|
需要用户名作为输入的操作的模式。 |
|
需要文件路径作为输入的操作的模式。 |
|
需要输入目录路径的操作的模式。 |
|
需要输入问题编号的操作的模式。 |
|
需要输入PR编号的操作的模式。 |
|
GitHub工具包。 |
|
不需要任何输入的操作的模式。 |
|
需要文件路径作为输入的操作的模式。 |
|
需要搜索查询作为输入的操作的模式。 |
|
需要搜索查询作为输入的操作的模式。 |
|
需要文件路径和内容作为输入的操作的模式。 |
|
GitLab工具包。 |
|
与Gmail交互的工具包。 |
|
Jira工具包。 |
|
与JSON规范交互的工具包。 |
|
与浏览器代理交互的工具包。 |
|
Nasa工具包。 |
|
自然语言API工具。 |
|
自然语言API工具包。 |
|
与Office 365交互的工具包。 |
|
|
发送DELETE请求并解析响应的工具。 |
使用LLM指导的截断响应提取的Requests GET工具。 |
|
使用LLM指导的截断响应提取的请求PATCH工具。 |
|
使用LLM指导的截断响应提取的请求POST工具。 |
|
使用LLM指导的截断响应提取的请求PUT工具。 |
|
一个简化的OpenAPI规范。 |
|
与OpenAPI API进行交互的工具包。 |
|
用于发起REST请求的工具包。 |
|
PlayWright浏览器工具包。 |
|
多边形工具包。 |
|
与Power BI数据集交互的工具包。 |
|
与Slack互动的工具包。 |
|
用于与Spark SQL交互的工具包。 |
|
用于与SQL数据库交互的工具包。 |
|
Steam 工具包。 |
|
Zapier工具包。 |
Functions¶
从LLM和工具构建一个json代理。 |
|
获取所有可能的工具名称列表。 |
|
从HuggingFace Hub加载工具。 |
|
|
基于它们的名称加载工具。 |
从LLM和工具构建一个OpenAPI代理。 |
|
构建一个针对给定规范的OpenAI API规划器和控制器。 |
|
简化/提炼/压缩某种规范。我希望检索的目标更小(更重要的是),我希望检索结果更小。我希望 https://openapi.tools/ 能够在这方面提供一些有用的内容,但似乎并非如此。 |
|
使用LLM和工具构建Power BI代理。 |
|
使用Chat LLM和工具构建Power BI代理。 |
|
从LLM和工具构建一个Spark SQL代理。 |
|
从LLM和工具包或数据库构建一个SQL代理。 |
langchain_community.cache
¶
Cache 为 LLMs 提供了一个可选的缓存层。
Cache 有两个用处:
如果你经常多次请求相同的完成,它可以通过减少向 LLM 提供商发出的 API 调用次数来为您节省金钱。
它可以通过减少向 LLM 提供商发出的 API 调用次数来加快应用程序的速度。
Cache 与 Memory 直接竞争。请参阅文档以了解优缺点。
类层次结构:
BaseCache --> <name>Cache # 例如: InMemoryCache, RedisCache, GPTCache
Classes¶
|
[Deprecated] |
|
[Deprecated] |
|
使用Redis作为后端的缓存。允许使用异步的`redis.asyncio.Redis`客户端。 |
|
使用Cosmos DB Mongo vCore向量存储后端的缓存 |
|
使用Cassandra / Astra DB作为后端的缓存。 |
|
使用Cassandra作为语义(即基于相似性的)查找的向量存储后端的缓存。 |
|
SQLite表格用于完整的LLM缓存(所有代)。 |
|
SQLite表格用于完整的LLM缓存(所有代)。 |
|
使用GPTCache作为后端的缓存。 |
在内存中存储东西的缓存。 |
|
|
使用Momento作为后端的缓存。请参阅https://gomomento.com/ |
|
使用OpenSearch向量存储后端的缓存 |
|
使用Redis作为后端的缓存。允许使用同步的`redis.Redis`客户端。 |
|
使用Redis作为向量存储后端的缓存。 |
|
使用SQLAlchemy作为后端的缓存。 |
|
使用SQLAlchemy作为后端的缓存。 |
|
使用SQLite作为后端的缓存。 |
|
使用Upstash Redis作为后端的缓存。 |
langchain_community.callbacks
¶
回调处理程序 允许监听LangChain中的事件。
类层次结构:
BaseCallbackHandler --> <name>CallbackHandler # 例如: AimCallbackHandler
Classes¶
将日志记录到Aim的回调处理程序。 |
|
回调处理程序,用于回调的元数据和相关函数状态。 |
|
回调处理程序,用于登录到Argilla。 |
|
回调处理程序,用于记录到Arize。 |
|
回调处理程序,用于记录到Arthur平台。 |
|
|
回调处理程序,用于跟踪基岩人类信息。 |
回调处理程序,用于记录到ClearML。 |
|
回调处理程序,用于记录到Comet。 |
|
|
回调处理程序,用于登录到deepeval。 |
回调处理程序,用于将记录传递给上下文服务(https://context.ai)。 |
|
初始化Fiddler回调处理程序。 |
|
在Flyte任务中使用的回调处理程序。 |
|
用于手动验证值的异步回调。 |
|
用于手动验证数值的回调函数。 |
|
当一个人手动审查并拒绝一个值时引发的异常。 |
|
回调处理程序,用于记录到Infino。 |
|
|
标签工作室回调处理程序。 提供将预测发送到标签工作室进行人工评估、反馈和注释的能力。 |
标签工作室模式枚举器。 |
|
|
回调处理程序用于LLMonitor。 |
LLMonitor用户上下文的上下文管理器。 |
|
回调处理程序,将指标和工件记录到mlflow服务器。 |
|
|
回调处理程序,用于将指标和工件记录到mlflow服务器。 |
回调处理程序,用于跟踪OpenAI信息。 |
|
|
提示层的回调处理程序。 |
回调处理程序,用于将提示工件和指标记录到SageMaker实验中。 |
|
作为一个命名元组的子记录。 |
|
子类型的枚举器。 |
|
Streamlit可展开器,可以重命名并动态展开/折叠。 |
|
|
LLM思维流中的一个思想。 |
|
生成LLMThought容器的Markdown标签。将自定义的子类传递给StreamlitCallbackHandler,以覆盖其默认的标记逻辑。 |
|
LLMThought状态的枚举器。 |
|
回调处理程序,用于向Streamlit应用程序写入。 |
|
将工具记录为一个NamedTuple。 |
|
彗星跟踪器。 |
处理LangChain Runs转换为WBTraceTree。 |
|
WandbTracer的参数。 |
|
|
回调处理程序,用于记录到Weights and Biases。 |
用于Trubrics的回调处理程序。 |
|
回调处理程序,将评估结果记录到UpTrain和控制台。 |
|
跟踪评估结果的UpTrain数据架构。 |
|
处理回调函数的元数据和相关函数状态。 |
|
回调处理程序,用于记录到Weights and Biases。 |
|
用于记录到WhyLabs的回调处理程序。此回调处理程序利用`langkit`从与LLM交互时的提示和响应中提取特征。这些特征可用于隔离、评估和观察随时间发生的交互,以检测与幻觉、提示工程或输出验证相关的问题。LangKit是由WhyLabs开发的LLM监控工具包。 |
Functions¶
导入 aim python 包,并在未安装时引发错误。 |
|
导入clearml python包,并在未安装时引发错误。 |
|
导入comet_ml,并在未安装时引发错误。 |
|
导入`getcontext`包。 |
|
导入fiddler python包,如果未安装则引发错误。 |
|
使用textstat和spacy分析文本。 |
|
导入 flytekit 和 flytekitplugins-deck-standard。 |
|
使用tiktoken包为OpenAI计算num tokens。 |
|
导入 infino 客户端。 |
|
导入tiktoken库,用于计算OpenAI模型的令牌数。 |
|
|
获取给定模式的Label Studio默认配置。 |
构建一个LLMonitor UserContextManager |
|
在上下文管理器中获取Bedrock人类回调处理程序。 方便地公开令牌和成本信息。 |
|
在上下文管理器中获取OpenAI回调处理程序。 方便地公开令牌和成本信息。 |
|
在上下文管理器中获取WandbTracer。 |
|
使用textstat和spacy分析文本。 |
|
|
根据提示和生成内容构建一个html元素。 |
从textstat获取文本复杂度指标。 |
|
导入mlflow python包,并在未安装时引发错误。 |
|
获取要记录到MLFlow的指标。 |
|
获取给定模型和令牌数量的成本(以美元计算)。 |
|
将模型名称标准化为可在OpenAI API中使用的格式。 |
|
|
将字典保存到本地文件路径。 |
导入comet_llm api,并在未安装时引发错误。 |
|
导入`uptrain`包。 |
|
|
将嵌套字典展平为一个扁平的字典。 |
使用sha1对字符串进行哈希。 |
|
导入pandas python包,并在未安装时引发错误。 |
|
导入spacy python包,并在未安装时引发错误。 |
|
导入textstat python包,并在未安装时引发错误。 |
|
|
将json文件加载到字符串中。 |
使用textstat和spacy分析文本。 |
|
|
从提示和生成中构建一个html元素。 |
导入wandb Python包,并在未安装时引发错误。 |
|
将json文件加载到字典中。 |
|
导入langkit python包,如果未安装则引发错误。 |
langchain_community.chains
¶
langchain_community的Chains模块
该模块包含社区链。
Classes¶
用于通过生成AQL语句针对图形进行问答的链。 |
|
用于针对图形进行问答的链。 |
|
用生成Cypher语句针对图形进行问答的链。 |
|
用于在生成的Cypher语句中纠正关系方向。 这段代码是从Cypher比赛的获奖者提交中复制的: https://github.com/sakusaku-rich/cypher-direction-competition |
|
Create new instance of Schema(left_node, relation, right_node) |
|
用生成Cypher语句针对图形进行问答的链。 |
|
用生成gremlin语句来针对图形进行问答的链。 |
|
用生成gremlin语句来针对图形进行问答的链。 |
|
针对Kùzu生成Cypher语句进行图形问答。 |
|
用于通过生成nGQL语句针对图进行问答的链。 |
|
针对 Neptune 图进行问答的链条,通过生成 openCypher 语句。 |
|
用于针对海王星图进行问答的链条,通过生成SPARQL语句。 |
|
针对Ontotext GraphDB进行问答,通过生成SPARQL查询。 |
|
针对RDF或OWL图进行问答,通过生成SPARQL语句。 |
|
请求一个URL,然后使用LLM来解析结果的链。 |
|
Chain使用自然语言与OpenAPI端点进行交互。 |
|
获取请求解析器。 |
|
解析请求和错误标签。 |
|
获取响应解析器。 |
|
解析响应和错误标签。 |
|
使用身份和语义强制执行的检索链,用于针对向量数据库的问答。 |
|
用于授权上下文的类。 |
|
PebbloRetrievalQA链的输入。 |
|
用于语义上下文的类。 |
|
用于语义实体过滤的类。 |
|
用于语义主题过滤的类。 |
Functions¶
|
将Python函数转换为与Ernie函数调用API兼容的字典。 |
将原始函数/类转换为 Ernie 函数。 |
|
[遗留] 创建一个使用 Ernie 函数的 LLM 链。 |
|
创建一个可运行的序列,使用 Ernie 函数。 |
|
|
[遗留] 创建一个LLMChain,使用Ernie函数来获取一个结构化的输出。 |
|
创建一个可运行的程序,使用Ernie函数来获取结构化输出。 |
给定用户函数,获取适当的函数输出解析器。 |
|
根据包含或排除的类型来过滤模式 |
|
从文本中提取Cypher代码。 |
|
从文本中提取Cypher代码。 参数: text:要从中提取Cypher代码的文本。 |
|
从文本中提取Gremlin代码。 |
|
从文本中提取Cypher代码。 |
|
|
从文本中删除前缀。 |
使用正则表达式从文本中提取Cypher代码。 |
|
将查询修剪为仅包含Cypher关键字。 |
|
决定是否使用简单提示 |
|
从文本中提取SPARQL代码。 |
|
|
在检索器中设置身份和语义执行过滤器。 |
langchain_community.chat_loaders
¶
聊天加载器 从常见的通讯平台加载聊天消息。
从各种通讯平台(如Facebook Messenger、Telegram和WhatsApp)加载聊天消息。加载的聊天消息可用于微调模型。
类层次结构:
BaseChatLoader --> <name>ChatLoader # 例如:WhatsAppChatLoader,IMessageChatLoader
主要辅助功能:
ChatSession
Classes¶
|
从文件夹中加载`Facebook Messenger`聊天数据。 |
|
从单个文件加载`Facebook Messenger`聊天数据。 |
|
[Deprecated] 从`GMail`加载数据。 |
从`iMessage` chat.db SQLite文件加载聊天会话。 |
|
从LangSmith数据集中加载具有“chat”数据类型的聊天会话。 |
|
从LangSmith的“llm”运行列表中加载聊天会话。 |
|
从一个压缩文件中加载`Slack`对话。 |
|
将`telegram`对话加载到LangChain聊天消息中。 |
|
从一个压缩文件或目录中加载`WhatsApp`的对话。 |
Functions¶
|
|
将来自指定“发送者”的消息转换为AI消息。 |
|
将来自指定“发送者”的消息转换为AI消息。 |
|
|
合并聊天记录。 |
将聊天会话中的聊天运行合并在一起。 |
langchain_community.chat_message_histories
¶
聊天消息历史记录 存储了聊天中消息互动的历史记录。
类层次结构:
BaseChatMessageHistory --> <name>ChatMessageHistory # 例如: FileChatMessageHistory, PostgresChatMessageHistory
主要辅助功能:
AIMessage, HumanMessage, BaseMessage
Classes¶
Functions¶
为给定的表名创建一个消息模型。 |
langchain_community.chat_models
¶
聊天模型 是语言模型的一种变体。
虽然聊天模型在内部使用语言模型,但它们公开的接口有些不同。它们不是暴露一个“输入文本,输出文本”的API,而是暴露一个以“聊天消息”为输入和输出的接口。
类层次结构:
BaseLanguageModel --> BaseChatModel --> <name> # 例如: ChatOpenAI, ChatGooglePalm
主要辅助功能:
AIMessage, BaseMessage, HumanMessage
Classes¶
[Deprecated] 使用Anthropic聊天大语言模型。 |
|
Anyscale 聊天大型语言模型。 |
|
[Deprecated] Azure OpenAI聊天完成API。 |
|
Azure ML在线端点聊天模型。 |
|
|
用于具有类似OpenAI API方案的模型的聊天内容格式化程序。 |
已弃用:保留以确保向后兼容 |
|
`LLaMA`的内容格式化程序。 |
|
`Mistral`的内容格式化程序。 |
|
百川智能科技提供的百川聊天模型API。 |
|
百度千帆聊天模型。 |
|
[Deprecated] 使用Bedrock API的聊天模型。 |
|
适配器类,用于将Langchain的输入准备成Chat模型所期望的提示格式。 |
|
[Deprecated] Cohere 聊天大语言模型。 |
|
ChatCoze聊天模型API由coze.com提供 |
|
`Dappier`聊天大型语言模型。 |
|
Databricks 聊天模型 API。 |
|
一个使用DeepInfra API 的聊天模型。 |
|
当DeepInfra API返回错误时引发的异常。 |
|
`EdenAI`聊天大型语言模型。 |
|
[Deprecated] ERNIE-Bot 大型语言模型。 |
|
EverlyAI 聊天大型语言模型。 |
|
用于测试目的的虚拟ChatModel。 |
|
用于测试目的的虚拟ChatModel。 |
|
[Deprecated] 烟花聊天模型。 |
|
友好的LLM用于聊天。 |
|
GigaChat 大型语言模型 API。 |
|
Google PaLM 聊天模型 API。 |
|
Google PaLM API存在错误。 |
|
GPTRouter由Writesonic Inc.提供。 |
|
`GPTRouter APIs`存在错误 |
|
GPTRouter模型。 |
|
[Deprecated] 用于将Hugging Face LLM作为ChatModels的包装器。 |
|
ChatModel返回用户输入作为响应。 |
|
腾讯混元聊天模型API由腾讯提供。 |
|
Javelin AI Gateway 聊天模型 API。 |
|
Javelin AI Gateway LLM 的参数。 |
|
Jina AI 聊天模型 API。 |
|
Kinetica LLM Chat Model API. |
|
从Kinetica LLM获取并返回数据。 |
|
包含SQL和提取的数据的响应。 |
|
Kinetica实用函数。 |
|
`ChatKonko`是一个大型语言模型API。 |
|
使用LiteLLM API 的聊天模型。 |
|
`LiteLLM I/O`库出现错误 |
|
LiteLLM路由器作为LangChain模型。 |
|
通过`llama-api-server`与LLMs进行聊天 |
|
MariTalk 聊天模型 API。 |
|
Initialize RequestException with request and response objects. |
|
MiniMax大型语言模型。 |
|
MLflow 聊天模型 API。 |
|
MLflow AI Gateway 聊天模型 API。 |
|
MLflow AI Gateway LLM 的参数。 |
|
MLX 聊天模型。 |
|
实现大型语言模型。 |
|
OctoAI聊天大语言模型。 |
|
Ollama在本地运行大型语言模型。 |
|
[Deprecated] OpenAI 聊天大型语言模型 API。 |
|
阿里云PAI-EAS LLM服务聊天模型API。 |
|
Perplexity AI 聊天模型 API。 |
|
PremAI聊天模型。 |
|
PremAI API存在错误。 |
|
PromptLayer 和 OpenAI 聊天大语言模型 API。 |
|
[Deprecated] 封装了Solar大型语言模型。 要使用,您应该已安装``openai`` python包,并且设置了环境变量``SOLAR_API_KEY``为您的API密钥。 (Solar的聊天API与OpenAI的SDK兼容。) 参考自https://console.upstage.ai/services/solar 示例: .. code-block:: python. |
|
iFlyTek Spark大型语言模型。 |
|
阿里巴巴统一问答聊天模型API。 |
|
[Deprecated] Vertex AI 聊天大型语言模型 API。 |
|
Volc Engine Maas托管了大量的模型。 |
|
YandexGPT大型语言模型。 |
|
Yuan2.0 聊天模型 API。 |
|
|
Functions¶
|
将消息列表格式化为Anthropic模型的完整提示 参数: messages (List[BaseMessage]): 要组合的BaseMessage列表。 human_prompt (str, optional): 人类提示标签。默认为"Human:"。 ai_prompt (str, optional): AI提示标签。默认为"Assistant:"。 返回: str: 带有必要的human_prompt和ai_prompt标签的组合字符串。 |
|
将消息转换为可以传递给API的字典。 |
将消息列表转换为mistral的提示。 |
|
获取Cohere聊天API的请求。 |
|
|
获取消息的角色。 |
使用tenacity来重试异步完成调用。 |
|
使用tenacity来重试流的完成调用。 |
|
使用tenacity来重试完成调用。 |
|
定义条件装饰器。 |
|
将字典响应转换为消息。 |
|
|
获取Friendli聊天API的请求。 |
|
获取消息的角色。 |
使用tenacity来重试异步完成调用。 |
|
|
使用tenacity来重试完成调用。 |
使用tenacity来重试异步完成调用。 |
|
使用tenacity来重试完成调用。 |
|
返回模型路由器输入的主体。 |
|
使用tenacity来重试异步完成调用。 |
|
使用tenacity来重试异步完成调用。 |
|
从用法和参数获取LLM输出。 |
|
将消息列表转换为llama的提示。 |
|
使用tenacity来重试异步完成调用。 |
|
|
使用tenacity进行重试以完成调用 |
为PremAI API错误创建一个重试装饰器。 |
|
将字典转换为消息。 |
|
将消息块转换为消息。 |
|
将消息转换为字典。 |
|
将字典转换为消息。 |
|
使用tenacity来重试异步完成调用。 |
|
使用tenacity来重试完成调用。 |
|
使用tenacity来重试异步完成调用。 |
|
|
|
|
langchain_community.cross_encoders
¶
跨编码器 是对来自不同API和服务的跨编码器模型的包装器。
跨编码器模型 可以是LLMs,也可以不是。
类层次结构:
BaseCrossEncoder --> <name>CrossEncoder # 例如:SagemakerEndpointCrossEncoder
Classes¶
虚假的交叉编码器模型。 |
|
HuggingFace跨编码器模型。 |
|
|
用于CrossEncoder类的内容处理程序。 |
|
SageMaker 推理 CrossEncoder 端点。 |
langchain_community.docstore
¶
Docstores 是用于存储和加载文档的类。
Docstore 是文档加载器的简化版本。
类层次结构:
Docstore --> <name> # 例如: InMemoryDocstore, Wikipedia
主要辅助功能:
Document, AddableMixin
Classes¶
|
通过任意查找函数进行文档存储。 |
支持添加文本的Mixin类。 |
|
访问存储文档的接口。 |
|
|
简单的内存文档存储,以字典的形式。 |
维基百科 API。 |
langchain_community.document_compressors
¶
Classes¶
使用Flashrank接口的文档压缩器。 |
|
使用`Jina Rerank API`的文档压缩器。 |
|
使用LLMLingua项目进行压缩。 |
|
打开OpenVINO重新排序模型。 |
|
请求重新排序。 |
langchain_community.document_loaders
¶
文档加载器 是用来加载文档的类。
文档加载器 通常用于在单次运行中加载大量文档。
类层次结构:
BaseLoader --> <name>Loader # 例如: TextLoader, UnstructuredFileLoader
主要辅助功能:
Document, <name>TextSplitter
Classes¶
|
从一个目录加载`acreom`保险库。 |
使用CDK实现的Airbyte源连接器加载。 |
|
使用`Airbyte`源连接器从`Gong`加载数据。 |
|
使用`Airbyte`源连接器从`Hubspot`加载数据。 |
|
使用`Airbyte`源连接器从`Salesforce`加载数据。 |
|
使用`Airbyte`源连接器从`Shopify`加载数据。 |
|
使用`Airbyte`源连接器从`Stripe`加载数据。 |
|
使用`Airbyte`源连接器从`Typeform`加载数据。 |
|
使用`Airbyte`源连接器从`Zendesk Support`加载数据。 |
|
加载本地的`Airbyte` json文件。 |
|
加载`Airtable`表。 |
|
从`Apify`网络爬虫、抓取和数据提取平台加载数据集。 |
|
从ArcGIS FeatureLayer加载记录。 |
|
|
从`Arxiv`加载查询结果。 |
加载AssemblyAI音频转录。 |
|
|
加载 AssemblyAI 音频转录。 |
用于文档加载器的转录格式。 |
|
[Deprecated] |
|
异步加载`HTML`。 |
|
|
从`AWS Athena`加载文档。 |
加载`AZLyrics`网页。 |
|
从Azure AI数据加载。 |
|
|
从`Azure Blob Storage`容器加载。 |
|
从`Azure Blob Storage`加载文件。 |
|
从`百度BOS目录`加载。 |
|
从`百度云BOS`加载文件。 |
所有使用O365 Package的加载器的基类 |
|
|
加载一个`bibtex`文件。 |
[Deprecated] 从谷歌云平台`BigQuery`加载。 |
|
从BiliBili视频中获取字幕。 |
|
加载一个`Blackboard`课程。 |
|
|
在本地文件系统中加载blob。 |
|
将YouTube网址加载为音频文件。 |
从区块链智能合约中加载元素。 |
|
支持的区块链的枚举器。 |
|
使用`Brave Search`搜索引擎加载。 |
|
使用托管在Browserbase上的无头浏览器加载预渲染的网页。 |
|
使用`Browserless`的/content端点加载网页。 |
|
为Apache Cassandra加载文档。 |
|
|
从导出的`ChatGPT`数据加载对话。 |
微软编译的HTML帮助(CHM)解析器。 |
|
使用`Unstructured`加载`CHM`文件。 |
|
使用无头Chromium实例从URL中抓取HTML页面。 |
|
|
加载`College Confidential`网页。 |
同时加载和解析文档。 |
|
加载`Confluence`页面。 |
|
Confluence页面内容格式的枚举器。 |
|
|
加载`CoNLL-U`文件。 |
从`Couchbase`加载文档。 |
|
|
将`CSV`文件加载到文档列表中。 |
使用`Unstructured`加载`CSV`文件。 |
|
加载`Cube语义层`元数据。 |
|
加载`Datadog`日志。 |
|
使用DataFrame对象进行初始化。 |
|
加载`Pandas`数据框。 |
|
加载`Diffbot`的json文件。 |
|
从一个目录加载。 |
|
加载`Discord`聊天记录。 |
|
|
使用Azure文档智能加载PDF。 |
[Deprecated] 从`Docugami`加载。 |
|
从Docusaurus文档加载。 |
|
从`Dropbox`加载文件。 |
|
从`DuckDB`加载。 |
|
使用extract_msg加载Outlook消息文件。 |
|
使用`Unstructured`加载电子邮件文件。 |
|
使用`Unstructured`加载`EPub`文件。 |
|
从`Ethereum`主网加载交易。 |
|
从`EverNote`加载。 |
|
使用`Unstructured`加载Microsoft Excel文件。 |
|
加载`Facebook Chat`消息目录转储。 |
|
|
从`FaunaDB`加载。 |
加载`Figma`文件。 |
|
使用FireCrawl将网页加载为文档。 |
|
[Deprecated] 从GCS目录加载。 |
|
[Deprecated] 从GCS文件加载。 |
|
通用文档加载器。 |
|
加载 geopandas 数据框。 |
|
|
加载`Git`存储库文件。 |
|
加载`GitBook`数据。 |
加载`GitHub`存储库的问题。 |
|
加载GitHub存储库的问题。 |
|
加载GitHub文件 |
|
从AWS Glue加载表模式。 |
|
|
[Deprecated] 用于Google Cloud Speech-to-Text音频转录的加载程序。 |
[Deprecated] 从`Google Drive`加载Google文档。 |
|
从`Gutenberg.org`加载。 |
|
文件编码作为NamedTuple。 |
|
|
加载`Hacker News`数据。 |
使用`Unstructured`加载`HTML`文件。 |
|
|
加载`HTML`文件并使用`beautiful soup`解析。 |
|
从`Hugging Face Hub`加载数据集。 |
|
从`Hugging Face Hub`加载模型信息,包括README内容。 |
|
加载`iFixit`修复指南、设备维基和答案。 |
使用`Unstructured`加载`PNG`和`JPG`文件。 |
|
加载图像标题。 |
|
加载`IMSDb`网页。 |
|
|
从`IUGU`加载。 |
从`Joplin`加载笔记。 |
|
使用`jq`模式加载一个`JSON`文件。 |
|
从`Kinetica` API加载。 |
|
lakeFS的客户端。 |
|
|
从`lakeFS`加载。 |
从`lakeFS`中加载作为非结构化数据。 |
|
从`LarkSuite`(飞书)加载。 |
|
从`LarkSuite`(飞书)wiki加载。 |
|
使用`LLMSherpa`加载文档。 |
|
使用`Unstructured`加载`Markdown`文件。 |
|
加载`Mastodon`的“toots”。 |
|
从`阿里云MaxCompute`表中加载。 |
|
从`XML`文件中加载`MediaWiki`转储。 |
|
从加载器列表中合并文档 |
|
|
使用`BeautifulSoup`解析`MHTML`文件。 |
从区块链智能合约中加载元素。 |
|
从`Modern Treasury`加载。 |
|
加载 MongoDB 文档。 |
|
|
从URL使用`Unstructured`加载新闻文章。 |
加载 Jupyter notebook (.ipynb) 文件。 |
|
加载`Notion目录`转储。 |
|
从`Notion DB`加载。 |
|
|
使用`Nuclia Understanding API`从任何文件类型加载。 |
从`华为OBS目录`加载。 |
|
从`华为OBS文件`加载。 |
|
从目录中加载`Obsidian`文件。 |
|
使用`Unstructured`加载`OpenOffice ODT`文件。 |
|
从`Microsoft OneDrive`加载。 |
|
从`Microsoft OneDrive`加载一个文件。 |
|
从OneNote笔记本加载页面。 |
|
从`开放城市`加载。 |
|
|
从Oracle adb加载 |
使用OracleDocLoader读取文档 参数: conn: Oracle连接, params: 加载器参数。 |
|
读取一个文件 |
|
使用Oracle分块器拆分文本。 |
|
解析Oracle文档元数据... |
|
使用`Unstructured`加载`Org-Mode`文件。 |
|
使用 faster-whisper 转录和解析音频文件。 |
|
转录和解析音频文件。 |
|
|
使用OpenAI Whisper模型转录和解析音频文件。 |
转录和解析音频文件。 音频转录使用OpenAI Whisper模型。 |
|
|
使用Azure文档智能(以前称为表单识别器)加载PDF。 |
[Deprecated] Google Cloud Document AI 解析器。 |
|
用于存储文档AI解析结果的数据类。 |
|
使用`mime`类型来解析blob的解析器。 |
|
使用`Grobid`加载文章的`PDF`文件。 |
|
当Grobid服务器不可用时引发的异常。 |
|
使用`Beautiful Soup`解析HTML文件。 |
|
C代码段分割器。 |
|
|
COBOL的代码段分割器。 |
|
用于代码分割的抽象类。 |
C++的代码分割器。 |
|
|
C#的代码分段器。 |
Go语言的代码分割器。 |
|
Java代码段分割器。 |
|
|
JavaScript的代码段分割器。 |
|
Kotlin的代码分段器。 |
|
使用相应的编程语言语法进行解析。 |
Lua的代码分割器。 |
|
Perl的代码分段器。 |
|
PHP的代码分段器。 |
|
|
`Python`的代码分段器。 |
Ruby的代码分段器。 |
|
Rust的代码分段器。 |
|
|
Scala的代码分段器。 |
|
用于使用tree-sitter库的`CodeSegmenter`的抽象类。 |
|
TypeScript的代码段分割器。 |
从一个 blob 中解析 Microsoft Word 文档。 |
|
将`PDF`文件发送到`Amazon Textract`并解析它们。 |
|
|
使用Azure文档智能(以前称为表单识别器)加载PDF,并按字符级别分块。 |
使用`PDFMiner`解析`PDF`。 |
|
使用`PDFPlumber`解析`PDF`。 |
|
使用`PyMuPDF`解析`PDF`。 |
|
使用`pypdf`加载`PDF` |
|
使用`PyPDFium2`解析`PDF`。 |
|
文本块的解析器。 |
|
用于vsdx文件的解析器。 |
|
从本地文件系统、HTTP或S3加载`PDF`文件。 |
|
|
用于`PDF`文件的基本加载器类。 |
使用Azure文档智能加载PDF |
|
|
使用`Mathpix`服务加载`PDF`文件。 |
|
加载在线`PDF`。 |
|
使用`PDFMiner`加载`PDF`文件。 |
使用`PDFMiner`将`PDF`文件加载为HTML内容。 |
|
|
使用`pdfplumber`加载`PDF`文件。 |
alias of |
|
|
使用`PyMuPDF`加载`PDF`文件。 |
使用`pypdf`加载一个包含`PDF`文件的目录,并以字符级别进行分块。 |
|
|
使用pypdf加载PDF文件到文档列表中。 |
|
使用`pypdfium2`加载`PDF`并按字符级别分块。 |
使用`Unstructured`加载`PDF`文件。 |
|
Pebblo Safe Loader类是对文档加载器的封装,使数据可以被仔细审查。 |
|
|
加载`Polars` DataFrame。 |
|
使用`Unstructured`加载`Microsoft PowerPoint`文件。 |
从`Psychic.dev`加载。 |
|
从`PubMed`生物医学库加载。 |
|
|
加载`PySpark`数据框架。 |
|
加载`Python`文件,遵循指定的非默认编码。 |
|
加载`Quip`页面。 |
加载`ReadTheDocs`文档目录。 |
|
|
从URL页面加载所有子链接。 |
加载`Reddit`帖子。 |
|
从一个目录加载`Roam`文件。 |
|
列未找到错误。 |
|
从`Rockset`数据库加载。 |
|
|
从RSpace笔记本、文件夹、文档或PDF Gallery文件加载内容。 |
|
从`RSS`源使用`Unstructured`加载新闻文章。 |
使用`Unstructured`加载`RST`文件。 |
|
使用`Unstructured`加载`RTF`文件。 |
|
从`Amazon AWS S3`目录加载。 |
|
|
从`Amazon AWS S3`加载文件。 |
从`SharePoint`加载。 |
|
|
加载站点地图及其URL。 |
从`Slack`目录转储中加载。 |
|
从`Snowflake` API加载。 |
|
使用Spider AI将网页加载为文档。 |
|
从`Spreedly` API加载。 |
|
通过查询SQLAlchemy支持的数据库表加载文档。 |
|
|
加载 `.srt`(字幕)文件。 |
|
从`Stripe` API加载。 |
加载 SurrealDB 文档。 |
|
加载`Telegram`聊天json目录转储。 |
|
从`Telegram聊天`转储中加载。 |
|
alias of |
|
|
从`腾讯云 COS`目录加载。 |
从`腾讯云 COS`加载文件。 |
|
|
从`TensorFlow Dataset`加载。 |
|
加载文本文件。 |
|
从TiDB加载文档。 |
使用`2markdown API`加载`HTML`。 |
|
|
加载`TOML`文件。 |
|
从`Trello`板加载卡片。 |
使用`Unstructured`加载`TSV`文件。 |
|
加载`Twitter`推文。 |
|
|
使用`Unstructured` API加载文件。 |
|
使用`Unstructured` API 加载文件。 |
基础加载器,使用`Unstructured`。 |
|
|
使用`Unstructured`加载文件。 |
使用`Unstructured`加载文件。 |
|
使用`Unstructured`从远程URL加载文件。 |
|
抽象基类,用于所有评估器。 |
|
使用`Playwright`加载`HTML`页面,并使用`Unstructured`进行解析。 |
|
|
使用`unstructured`库评估页面的HTML内容。 |
使用`Selenium`加载`HTML`页面,并使用`Unstructured`进行解析。 |
|
|
使用文件路径进行初始化。 |
使用`Open Weather Map` API加载天气数据。 |
|
使用`urllib`加载HTML页面,并使用`BeautifulSoup`解析它们。 |
|
加载`WhatsApp`消息文本文件。 |
|
从`Wikipedia`加载。 |
|
使用`docx2txt`加载`DOCX`文件,并以字符级别进行分块。 |
|
|
使用`Unstructured`加载`Microsoft Word`文件。 |
使用`Unstructured`加载`XML`文件。 |
|
加载 Xorbits 数据框。 |
|
通用的Google API客户端。 |
|
从`YouTube`频道加载所有视频。 |
|
转录格式。 |
|
|
加载`YouTube`字幕。 |
|
从`语雀`加载文档。 |
Functions¶
获取指定文件类型的MIME类型。 |
|
将消息信息以可读格式组合在一起,准备好供使用。 参数: message: 要连接的消息 title: 对话框的标题 |
|
将消息信息以易读的格式组合在一起,准备好供使用。 |
|
尝试检测文件的编码。 |
|
将单元格信息以易读的格式组合在一起,准备供使用。 |
|
递归地删除换行符,无论它们存储在哪种数据结构中。 |
|
|
使用RapidOCR从图像中提取文本。 |
根据解析器名称获取解析器。 |
|
内容列的默认连接器。 |
|
将消息信息组合成一个易读的格式,准备好供使用。 |
|
将字符串或字符串列表转换为带有元数据的文档列表。 |
|
从`非结构化API`中检索元素列表。 |
|
|
检查已安装的“Unstructured”版本是否超过所需功能的最低版本要求。 |
|
如果“Unstructured”版本未达到指定的最小值,则引发错误。 |
将消息信息组合成一个易读的格式,准备好供使用。 |
langchain_community.document_transformers
¶
文档转换器 是用于转换文档的类。
文档转换器 通常用于在单次运行中转换大量文档。
类层次结构:
BaseDocumentTransformer --> <name> # 例如: DoctranQATransformer, DoctranTextTranslator
主要辅助工具:
Document
Classes¶
Functions¶
|
从BeautifulSoup元素中获取所有可导航的字符串。 |
|
将文档列表转换为带有状态的文档列表。 |
|
创建一个DocumentTransformer,使用OpenAI函数链自动为文档添加基于其内容和输入模式的元数据标记。 |
langchain_community.embeddings
¶
嵌入模型 是对来自不同API和服务的嵌入模型的包装器。
嵌入模型 可以是LLMs,也可以不是。
类层次结构:
嵌入 --> <name>嵌入 # 例如: OpenAI嵌入, HuggingFace嵌入
Classes¶
|
Aleph Alpha的非对称语义嵌入。 |
Aleph Alpha的语义嵌入的对称版本。 |
|
Anyscale 嵌入式 API。 |
|
使用Awa DB嵌入文档和查询。 |
|
[Deprecated] Azure OpenAI 嵌入式 API。 |
|
Baichuan文本嵌入模型。 |
|
百度千帆嵌入 嵌入模型。 |
|
Bedrock嵌入模型。 |
|
Bookend AI句子转换嵌入模型。 |
|
Clarifai嵌入模型。 |
|
|
Cloudflare Workers AI嵌入模型。 |
[Deprecated] 嵌入模型。 |
|
DashScope嵌入模型。 |
|
Databricks嵌入。 |
|
Deep Infra的嵌入推理服务。 |
|
EdenAI嵌入。 环境变量``EDENAI_API_KEY``设置为您的API密钥,或作为命名参数传递。 |
|
[Deprecated] Elasticsearch嵌入模型。 |
|
Embaas的嵌入式服务。 |
|
用于Embaas嵌入式API的有效载荷。 |
|
[Deprecated] Ernie Embeddings V1 嵌入模型。 |
|
一个假的嵌入模型,对于相同的文本始终返回相同的嵌入向量。 |
|
模拟嵌入模型。 |
|
Qdrant FastEmbedding 模型。 FastEmbed 是一个轻量级、快速的 Python 库,用于生成嵌入。 更多文档请参见: * https://github.com/qdrant/fastembed/ * https://qdrant.github.io/fastembed/ |
|
GigaChat嵌入模型。 |
|
Google的PaLM嵌入式API。 |
|
GPT4All嵌入模型。 |
|
Gradient.ai嵌入模型。 |
|
|
已弃用,TinyAsyncGradientEmbeddingClient已被移除。 |
HuggingFace sentence_transformers嵌入模型。 |
|
HuggingFace sentence_transformers嵌入模型。 |
|
使用HuggingFace API 嵌入文本。 |
|
包装句子转换嵌入模型。 |
|
HuggingFaceHub嵌入模型。 |
|
自托管的嵌入模型,用于 infinity 包。 |
|
|
辅助工具,用于嵌入Infinity。 |
优化的Infinity嵌入模型。 |
|
利用Itrex运行时解锁压缩NLP模型的性能。 |
|
Javelin AI Gateway embeddings. |
|
Jina嵌入模型。 |
|
JohnSnowLabs嵌入模型 |
|
LASER语言无关句子表示。 LASER是Meta AI研究团队开发的Python库, 用于为147种以上的语言创建多语言句子嵌入,截至2024年2月25日。 查看更多文档: * https://github.com/facebookresearch/LASER/ * https://github.com/facebookresearch/LASER/tree/main/laser_encoders * https://arxiv.org/abs/2205.12654 |
|
llama.cpp嵌入模型。 |
|
Llamafile可以让您使用单个文件分发和运行大型语言模型。 |
|
LLMRails嵌入模型。 |
|
本地AI嵌入模型。 |
|
MiniMax的嵌入式服务。 |
|
在MLflow中嵌入Cohere嵌入式LLMs。 |
|
在MLflow中嵌入LLMs。 |
|
MLflow AI Gateway embeddings. |
|
模型范围嵌入模型。 |
|
MosaicML嵌入式服务。 |
|
[Deprecated] NeMo嵌入模型。 |
|
NLP Cloud嵌入模型。 |
|
OCI身份验证类型作为枚举器。 |
|
OCI嵌入式模型。 |
|
OctoAI计算服务嵌入模型。 |
|
Ollama在本地运行大型语言模型。 |
|
[Deprecated] OpenAI嵌入模型。 |
|
打开 OpenVNO BGE 嵌入模型。 |
|
OpenVINO嵌入模型。 |
|
量化双编码器嵌入模型。 |
|
获取嵌入向量 |
|
Prem的嵌入式APIs |
|
LLM类的内容处理程序。 |
|
自定义Sagemaker推理端点。 |
|
SambaNova嵌入模型。 |
|
自定义嵌入模型在自托管远程硬件上。 |
|
|
在自托管远程硬件上使用HuggingFace嵌入模型。 |
|
HuggingFace在自托管远程硬件上的InstructEmbedding模型。 |
[Deprecated] Solar的嵌入服务。 |
|
spaCy模型的嵌入。 |
|
在头部组装过程中发生错误时引发的异常。 |
|
SparkLLM文本嵌入模型。 |
|
|
|
TensorflowHub嵌入模型。 |
|
text2vec嵌入模型。 |
|
|
用于推理的设备,cuda或cpu。 |
在初始化TitanTakeoffEmbed或在嵌入请求中未提供消费者组时引发的异常。 |
|
部署在Takeoff中的读取器配置。 |
|
用于与Takeoff Embedding类进行交互的自定义异常。 |
|
与Takeoff推理API接口进行模型嵌入。 |
|
[Deprecated] 谷歌云VertexAI嵌入模型。 |
|
Volcengine Embeddings 嵌入模型。 |
|
[Deprecated] 航行嵌入模型。 |
|
运行 Xinference 嵌入模型。 |
|
YandexGPT嵌入模型。 |
Functions¶
使用tenacity来重试嵌入调用。 |
|
使用tenacity来重试完成调用。 |
|
使用tenacity来重试嵌入调用。 |
|
使用tenacity来重试嵌入调用。 |
|
使用tenacity来重试完成调用。 |
|
|
检查通过向指定的URL发送GET请求来确定端点是否处于活动状态。 |
使用tenacity来重试嵌入调用。 |
|
使用tenacity来重试嵌入调用。 |
|
为PremAIEmbeddings创建一个重试装饰器。 |
|
|
使用tenacity库进行嵌入调用的重试 |
|
加载嵌入模型。 |
使用tenacity来重试完成调用。 |
|
使用tenacity来重试嵌入调用。 |
langchain_community.example_selectors
¶
示例选择器 实现了选择示例以包含在提示中的逻辑。 这使我们能够选择与输入最相关的示例。
可以有多种选择示例的策略。例如,可以根据输入与示例的相似性来选择示例。另一种策略可能是根据示例的多样性来选择示例。
Classes¶
根据ngram重叠得分(来自NLTK软件包的sentence_bleu得分)选择和排序示例。 |
Functions¶
计算源文本和示例文本的ngram重叠得分,作为句子BLEU分数,使用NLTK包。 |
langchain_community.graphs
¶
图形 提供了与图数据库的自然语言接口。
Classes¶
|
Apache AGE包装器用于图操作。 |
|
针对AGE查询的异常。 |
ArangoDB图操作的包装器。 |
|
|
FalkorDB用于图操作的包装器。 |
代表由节点和关系组成的图形文档。 |
|
代表图中具有关联属性的节点。 |
|
代表图中两个节点之间的有向关系。 |
|
用于图操作的抽象类。 |
|
|
用于图操作的Gremlin包装器。 |
|
HugeGraph用于图操作的包装器。 |
创建图索引的功能。 |
|
|
Kùzu图操作的包装器。 |
|
Memgraph图操作的包装器。 |
|
NebulaGraph用于图操作的包装器。 |
|
Neo4j数据库包装器,用于各种图操作。 |
Neptune的抽象基类 |
|
Neptune Analytics用于图操作的包装器。 |
|
|
海王星图操作的封装器。 |
Neptune查询的异常。 |
|
Neptune用于RDF图操作的包装器。 |
|
图中的知识三元组。 |
|
用于实体图操作的Networkx包装器。 |
|
Ontotext GraphDB https://graphdb.ontotext.com/ 是用于图操作的包装器。 |
|
|
RDFlib图操作的包装器。 |
TigerGraph图操作的包装器。 |
Functions¶
从凭据中获取Arango DB客户端。 |
|
清理输入的字典或列表。 |
|
|
从实体字符串中提取实体。 |
从知识字符串中解析知识三元组。 |
langchain_community.indexes
¶
索引 用于避免将重复内容写入向量存储,并在内容未更改时避免覆盖内容。
索引还有:
从数据创建知识图。
支持从LangChain数据加载程序到向量存储的索引工作流程。
重要的是,即使正在写入的内容是通过一组转换从某些源内容派生出来的(例如,通过分块从父文档派生出子文档进行索引),索引仍在继续工作。
Classes¶
|
用于记录管理器的抽象基类。 |
langchain_community.llms
¶
LLM类提供对大型语言模型(LLM)API和服务的访问。
类层次结构:
BaseLanguageModel --> BaseLLM --> LLM --> <name> # 例如:AI21,HuggingFaceHub,OpenAI
主要辅助功能:
LLMResult, PromptValue,
CallbackManagerForLLMRun, AsyncCallbackManagerForLLMRun,
CallbackManager, AsyncCallbackManager,
AIMessage, BaseMessage
Classes¶
AI21大型语言模型。 |
|
AI21惩罚数据的参数。 |
|
阿勒夫阿尔法大型语言模型。 |
|
使用Amazon API Gateway访问托管在AWS上的LLM模型。 |
|
适配器,用于将来自Langchain的输入准备成LLM模型期望的格式。 |
|
[Deprecated] 人类学大型语言模型。 |
|
使用Anyscale大型语言模型。 |
|
阿芙洛狄忒语言模型。 |
|
Arcee的领域自适应语言模型(DALMs)。 |
|
Aviary 托管模型。 |
|
|
鸟舍后端。 |
Azure ML在线端点模型。 |
|
Azure ML终结点API类型。对于部署在托管基础设施中的模型(也称为Azure机器学习中的在线终结点),请使用`dedicated`,或者对于部署为按使用量计费或PTU的服务的模型,请使用`serverless`。 |
|
AzureML托管端点客户端。 |
|
Azure ML在线端点模型。 |
|
将AzureML端点的请求和响应转换为所需的模式。 |
|
用于使用OpenAI类API方案的模型的内容格式化程序。 |
|
Dolly-v2-12b模型的内容处理程序 |
|
GPT2的内容处理程序 |
|
HuggingFace目录中LLMs的内容处理程序。 |
|
已弃用:保留以确保向后兼容 |
|
已弃用:保留以确保向后兼容 |
|
百川大型语言模型。 |
|
百度千帆托管开源或定制模型。 |
|
香蕉大型语言模型。 |
|
基本模型 |
|
用于gpt2大型语言模型的Beam API。 |
|
[Deprecated] Bedrock模型。 |
|
Bedrock模型的基类。 |
|
适配器类,用于将Langchain的输入准备成LLM模型期望的格式。 |
|
包装器,用于BigdlLLM模型 |
|
NIBittensor LLMs |
|
CerebriumAI大型语言模型。 |
|
ChatGLM LLM 服务。 |
|
ChatGLM3 LLM 服务。 |
|
Clarifai大型语言模型。 |
|
Cloudflare Workers AI 服务。 |
|
[Deprecated] 用于Cohere模型的基类。 |
|
[Deprecated] 连接大型语言模型。 |
|
C Transformers LLM 模型。 |
|
CTranslate2语言模型。 |
|
Databricks提供端点或LLM的集群驱动代理应用程序。 |
|
深度基础设施模型。 |
|
神经魔术DeepSparse LLM接口。 要使用,您应该安装``deepsparse``或``deepsparse-nightly`` python包。请参阅https://github.com/neuralmagic/deepsparse 该接口允许您直接从[SparseZoo](https://sparsezoo.neuralmagic.com/?useCase=text_generation)部署优化的LLMs 示例: .. code-block:: python from langchain_community.llms import DeepSparse llm = DeepSparse(model="zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base_quant-none"). |
|
EdenAI 模型。 |
|
ExllamaV2 API。 |
|
用于测试目的的虚假LLM。 |
|
用于测试目的的虚假流列表LLM。 |
|
[Deprecated] 烟花模型。 |
|
ForefrontAI大型语言模型。 |
|
Friendli的基类。 |
|
友好的LLM。 |
|
GigaChat 大型语言模型API。 |
|
[Deprecated] 已弃用:请改用`langchain_google_genai.GoogleGenerativeAI`。 |
|
GooseAI大型语言模型。 |
|
GPT4All语言模型。 |
|
Gradient.ai LLM端点。 |
|
训练结果。 |
|
[Deprecated] HuggingFace终端。 |
|
[Deprecated] HuggingFaceHub 模型。 ! 此类已被弃用,您应该使用 HuggingFaceEndpoint 替代。 |
|
[Deprecated] HuggingFace Pipeline API。 |
|
|
[Deprecated] HuggingFace文本生成API。 ! 此类已被弃用,您应该使用HuggingFaceEndpoint代替! |
用户输入作为响应。 |
|
IpexLLM 模型。 |
|
Javelin AI Gateway LLMs. |
|
Javelin AI 网关 LLM 的参数。 |
|
Kobold API语言模型。 |
|
Konko AI模型。 |
|
层级安全LLM服务。 |
|
llama.cpp 模型。 |
|
Llamafile允许您使用单个文件分发和运行大型语言模型。 |
|
HazyResearch的Manifest库。 |
|
大型语言模型的极小化。 |
|
Minimax大型语言模型的常见参数。 |
|
MLflow LLM 服务。 |
|
MLflow AI 网关 LLMs。 |
|
MLflow AI Gateway LLM的参数。 |
|
MLX Pipeline API。 |
|
大型语言模型。 |
|
实现大型语言模型。 |
|
Moonshot LLMs的常见参数。 |
|
MosaicML LLM 服务。 |
|
NLPCloud大型语言模型。 |
|
|
用于在OCI数据科学模型部署上部署LLM的基类。 |
|
OCI数据科学模型部署TGI端点。 |
|
VLLM部署在OCI数据科学模型部署上 |
|
OCI身份验证类型作为枚举器。 |
OCI大型语言模型。 |
|
OCI GenAI模型的基类 |
|
OctoAI LLM终端点 - 兼容OpenAI。 |
|
Ollama在本地运行大型语言模型。 |
|
当未找到Ollama端点时引发。 |
|
LLM使用OpaquePrompts来清理提示。 |
|
[Deprecated] Azure特定的OpenAI大型语言模型。 |
|
基础OpenAI大型语言模型类。 |
|
[Deprecated] OpenAI大型语言模型。 |
|
[Deprecated] 打开AI聊天大型语言模型。 |
|
用于将模型识别为类型字典的参数。 |
|
OpenLLM支持本地模型实例和远程OpenLLM服务器。 |
|
打开LM模型。 |
|
Langchain LLM类用于帮助访问EAS LLM服务。 |
|
花瓣绽放模型。 |
|
PipelineAI大型语言模型。 |
|
使用Langchain与您的Predibase模型。 |
|
保护大型语言模型的预测。 |
|
打开AI大型语言模型的PromptLayer。 |
|
打开AI大型语言模型的PromptLayer。 |
|
复制模型。 |
|
RWKV 语言模型。 |
|
处理程序类,用于将LLM输入转换为SageMaker端点期望的格式。 |
|
LLM类的内容处理程序。 |
|
解析字节流输入。 |
|
Sagemaker推理端点模型。 |
|
|
SambaNova Systems接口,用于SambaStudio模型端点。 |
|
SambaNova Systems接口用于Sambaverse端点。 |
SambaStudio大型语言模型。 |
|
Sambaverse大型语言模型。 |
|
在自托管远程硬件上进行模型推理。 |
|
使用HuggingFace Pipeline API 在自托管的远程硬件上运行。 |
|
太阳能大型语言模型。 |
|
Solar LLMs的常见配置。 |
|
iFlyTek Spark大型语言模型。 |
|
随机AI大型语言模型。 |
|
从WebUI生成文本模型。 |
|
|
用于推理的设备,cuda或cpu |
用于部署在Titan Takeoff API中的阅读器配置。 |
|
Titan Takeoff API LLMs。 |
|
[Deprecated] LLM模型来自`Together`。 |
|
同意群问大语言模型。 |
|
[Deprecated] 谷歌Vertex AI大型语言模型。 |
|
[Deprecated] Vertex AI模型花园大型语言模型。 |
|
VLLM语言模型。 |
|
vLLM OpenAI兼容的API客户端 |
|
用于VolcEngineMaas模型的基类。 |
|
volc engine maas 主机拥有大量的模型。 您可以通过这个类来利用这些模型。 |
|
[Deprecated] IBM Watsonx.ai大型语言模型。 |
|
仅权重量化模型。 |
|
Writer大型语言模型。 |
|
Xinference 大规模模型推理服务。 |
|
Yandex大型语言模型。 |
|
Yuan2.0 语言模型。 |
Functions¶
|
从选择和提示中创建LLMResult。 |
|
更新令牌使用。 |
|
从 Aviary 模型中获取完成结果。 |
列出可用的模型 |
|
|
使用tenacity来重试完成调用。 |
|
使用tenacity来重试完成调用。 |
获取默认的Databricks个人访问令牌。 如果无法自动确定令牌,则会引发错误。 |
|
获取默认的Databricks工作区主机名。 如果无法自动确定主机名,则会引发错误。 |
|
如果在Databricks笔记本中运行,则获取笔记本的REPL上下文。 否则返回None。 |
|
|
使用tenacity来重试完成调用。 |
使用tenacity来重试完成调用。 |
|
使用tenacity来重试流的完成调用。 |
|
|
使用tenacity来重试完成调用。 |
使用tenacity来重试完成调用。 |
|
根据条件应用装饰器。 |
|
|
使用tenacity来重试完成调用。 |
如果存在的话,删除URL末尾的斜杠和/api。 |
|
|
默认的防护栏违规处理程序。 |
|
从文件中加载LLM。 |
|
从配置字典中加载LLM。 |
|
使用tenacity来重试异步完成调用。 |
|
使用tenacity来重试完成调用。 |
|
更新令牌使用。 |
从异步可迭代对象中生成元素,并返回一个布尔值,指示是否为最后一个元素。 |
|
|
`stream_generate_with_retry`的异步版本。 |
检查完成调用的响应。 |
|
从可迭代对象生成元素,并返回一个布尔值,指示是否为最后一个元素。 |
|
|
使用tenacity来重试完成调用。 |
|
使用tenacity来重试完成调用。 |
|
一旦出现任何停用词,立即截断文本。 |
|
使用tenacity来重试完成调用。 |
|
使用tenacity来重试完成调用。 |
|
如果模型名称是Codey模型,则返回True。 |
|
如果模型名称是Gemini模型,则返回True。 |
|
使用tenacity来重试异步完成调用。 |
|
使用tenacity来重试完成调用。 |
langchain_community.memory
¶
Classes¶
知识图谈话记忆。 |
|
聊天消息存储由Motorhead服务支持。 |
|
将您的链历史持久化到Zep MemoryStore。 |
langchain_community.output_parsers
¶
OutputParser 类用于解析LLM调用的输出。
类层次结构:
BaseLLMOutputParser --> BaseOutputParser --> <name>OutputParser # GuardrailsOutputParser
主要辅助类:
Serializable, Generation, PromptValue
Classes¶
将输出解析为Json对象的元素。 |
|
将输出解析为Json对象。 |
|
解析一个包含一组值的输出。 |
|
|
将输出解析为pydantic对象的属性。 |
|
将输出解析为一个pydantic对象。 |
使用Guardrails解析LLM调用的输出。 |
langchain_community.query_constructors
¶
Classes¶
将AstraDB内部查询语言元素翻译为有效的过滤器。 |
|
将`Chroma`内部查询语言元素翻译为有效的过滤器。 |
|
将内部查询语言元素转换为有效过滤器的逻辑。 |
|
|
将`Databricks vector search`内部查询语言元素翻译为有效的过滤器。 |
将`DeepLake`内部查询语言元素翻译为有效的过滤器。 |
|
将`DingoDB`内部查询语言元素翻译为有效的过滤器。 |
|
将`Elasticsearch`内部查询语言元素翻译为有效的过滤器。 |
|
将Milvus内部查询语言元素翻译为有效的过滤器。 |
|
将Mongo内部查询语言元素翻译为有效的过滤器。 |
|
将`MyScale`内部查询语言元素翻译为有效的过滤器。 |
|
将`OpenSearch`内部查询领域特定语言元素翻译为有效的过滤器。 |
|
将`PGVector`内部查询语言元素翻译为有效的过滤器。 |
|
将`Pinecone`内部查询语言元素翻译为有效的过滤器。 |
|
将`Qdrant`内部查询语言元素翻译为有效的过滤器。 |
|
用于将结构化查询翻译为Redis过滤表达式的访问者。 |
|
将Langchain过滤器翻译为Supabase PostgREST过滤器。 |
|
|
将StructuredQuery翻译为腾讯VectorDB查询。 |
|
将内部查询语言元素翻译为有效的过滤器。 |
将`Vectara`内部查询语言元素翻译为有效的过滤器。 |
|
将`Weaviate`内部查询语言元素转换为有效的过滤器。 |
Functions¶
检查一个字符串是否可以转换为浮点数。 |
|
将一个值转换为字符串,并在其为字符串时添加双引号。 |
|
将一个值转换为字符串,如果它是一个字符串,则添加单引号。 |
langchain_community.retrievers
¶
Retriever 类根据文本 query 返回文档。
它比向量存储更通用。检索器不需要能够存储文档,只需要返回(或检索)它。向量存储可以用作检索器的支撑,但也有其他类型的检索器。
类层次结构:
BaseRetriever --> <name>Retriever # 例如: ArxivRetriever, MergerRetriever
主要辅助功能:
Document, Serializable, Callbacks,
CallbackManagerForRetrieverRun, AsyncCallbackManagerForRetrieverRun
Classes¶
Arcee领域自适应语言模型(DALMs)检索器。 |
|
Arxiv检索器。 |
|
新闻询问器。 |
|
Azure AI搜索服务检索器。 |
|
`Azure Cognitive Search`服务检索器。 这个版本的检索器很快将被弃用。请切换到AzureAISearchRetriever |
|
Amazon Bedrock Knowledge Bases 检索。 |
|
检索配置。 |
|
向量搜索的配置。 |
|
BM25 检索器,不使用Elasticsearch。 |
|
为 Breebs 创建的检索器类。 |
|
Chaindesk API 数据检索器. |
|
ChatGPT插件 检索器。 |
|
[Deprecated] Cohere Chat API与RAG。 |
|
Databerry API 数据检索器。 |
|
DocArray Document Indices 检索器。 |
|
|
要执行的搜索类型的枚举器。 |
使用DriaAPIWrapper检索Dria。 |
|
使用BM25的Elasticsearch检索器。 |
|
Embedchain 检索器。 |
|
|
[Deprecated] 基于文档 AI 仓库的检索器。 |
|
Google Vertex Search API 是为了向后兼容而设置的检索器别名。 已弃用:请改用`GoogleVertexAISearchRetriever`。 |
|
[Deprecated] Google Vertex AI Search 是用于多轮对话的检索器。 |
|
[Deprecated] `Google Vertex AI Search`检索器。 |
用于Kay.ai数据集的检索器。 |
|
额外的结果属性。 |
|
额外结果属性的值。 |
|
Amazon Kendra索引检索器。 |
|
文档属性。 |
|
文档属性的值。 |
|
在摘录中突出显示关键词的信息。 |
|
Amazon Kendra Query API 搜索结果。 |
|
查询API结果项。 |
|
结果如下所示: |
|
Amazon Kendra Retrieve API 搜索结果。 |
|
检索API结果项。 |
|
文本带有高亮显示。 |
|
KNN 检索器。 |
|
`LlamaIndex`图数据结构检索器。 |
|
LlamaIndex 检索器。 |
|
Metal API 检索器。 |
|
Milvus API 检索器。 |
|
轮廓API的检索器。 |
|
|
Pinecone Hybrid Search 检索器。 |
PubMed API检索器。 |
|
|
Qdrant稀疏向量检索器。 |
Rememberizer检索器。 |
|
LangChain API 检索器。 |
|
SVM 检索器。 |
|
搜索深度作为枚举器。 |
|
Tavily搜索API检索器。 |
|
TF-IDF 检索器。 |
|
使用ThirdAI的NeuralDB的文档检索器。 |
|
Vespa 检索器。 |
|
|
`Weaviate混合搜索`检索器。 |
用于解析一组编号问题的输出解析器。 |
|
用户目标的搜索查询。 |
|
Google Search API 检索器。 |
|
“Wikipedia API”检索器。 |
|
You.com 搜索API检索器。 |
|
|
搜索哪些文档。消息还是摘要? |
|
要执行的搜索类型的枚举器。 |
Zep内存存储检索器。 |
|
Zilliz API 检索器。 |
Functions¶
|
清理 Kendra 的摘录。 |
将ResultItem的标题和摘录合并为一个字符串。 |
|
|
为上下文列表创建嵌入索引。 |
|
已弃用的MilvusRetreiver。请改用MilvusRetriever(在'e'之前加上'i')。 |
从上下文列表中创建索引。 |
|
使用SHA256对文本进行哈希运算。 |
|
|
为上下文列表创建嵌入索引。 |
|
已弃用的ZillizRetreiver。 |
langchain_community.storage
¶
Storage 是键值存储的实现。
Storage模块提供了符合简单键值接口的各种键值存储的实现。
这些存储的主要目标是支持缓存。
类层次结构:
BaseStore --> <name>Store # 例如: MongoDBStore, RedisStore
Classes¶
|
用于DataStax AstraDB数据存储的基类。 |
|
[Deprecated] |
|
[Deprecated] |
|
使用MongoDB作为底层存储的BaseStore实现。 |
|
基于Redis作为底层存储的BaseStore实现。 |
使用Upstash Redis作为底层存储来实现BaseStore。 |
|
|
[Deprecated] 使用Upstash Redis作为底层存储来存储字符串的BaseStore实现。 |
langchain_community.tools
¶
工具 是Agent用来与世界互动的类。
每个工具都有一个 描述 。Agent使用描述来选择合适的工具来完成工作。
类层次结构:
ToolMetaclass --> BaseTool --> <name>Tool # 例子: AIPluginTool, BaseGraphQLTool
<name> # 例子: BraveSearch, HumanInputRun
主要辅助工具:
CallbackManagerForToolRun, AsyncCallbackManagerForToolRun
Classes¶
应用操作工具。 |
|
应用程序操作类型的枚举器。 |
|
应用程序操作的模式。 |
|
用于 AINetwork 工具的基类。 |
|
|
操作类型作为枚举器。 |
工具用于所有者操作。 |
|
拥有者操作的模式。 |
|
工具用于所有者操作。 |
|
拥有者操作的模式。 |
|
用于传输操作的工具。 |
|
转账操作的模式。 |
|
值操作工具。 |
|
值操作的模式。 |
|
Amadeus的基础工具。 |
|
工具用于找到特定位置最近的机场。 |
|
工具AmadeusClosestAirport的模式。 |
|
工具用于在两个机场之间搜索单程航班。 |
|
AmadeusFlightSearch工具的架构。 |
|
Arxiv工具的输入。 |
|
搜索Arxiv API的工具。 |
|
搜索AskNews API的工具。 |
|
用于AskNews搜索工具的输入。 |
|
|
HuggingFace 文本到语音模型推断。 |
|
用于查询Azure AI服务文档智能API的工具。 |
|
用于查询Azure AI服务图像分析API的工具。 |
|
用于查询Azure AI服务语音转文本API的工具。 |
|
用于查询Azure AI Services Text Analytics for Health API的工具。 |
|
工具用于查询Azure AI服务的文本到语音API。 |
|
工具,用于查询Azure认知服务表单识别API。 |
|
工具,用于查询Azure认知服务图像分析API。 |
|
用于查询Azure认知服务Speech2Text API的工具。 |
|
用于查询Azure认知服务Text2Speech API的工具。 |
|
用于查询Azure认知服务文本分析健康API的工具。 |
用于在沙盒环境中评估Python代码的工具。 |
|
BearlyInterpreterTool的参数。 |
|
要上传的文件信息。 |
|
查询Bing搜索API并返回json的工具。 |
|
使用Bing搜索API查询工具。 |
|
查询BraveSearch的工具。 |
|
与Apache Cassandra数据库交互的基本工具。 |
|
|
用于获取Apache Cassandra数据库中keyspace的模式的工具。 |
|
|
工具用于使用提供的CQL查询Apache Cassandra数据库。 |
|
用于查询Clickup API的工具。 |
|
使用Cogniswitch服务来回答问题的工具。 |
|
工具使用Cogniswitch服务将数据存储到文件中。 |
|
工具,使用Cogniswitch服务从URL存储数据。 |
|
使用Cogniswitch服务获取文档或上传的URL的状态的工具。 |
|
Connery动作模型。 |
|
Connery操作参数模型。 |
|
Connery操作参数验证模型。 |
|
与Connery Runner API交互的服务。 |
|
康纳动作工具。 |
|
用于查询DataForSeo Google搜索API并获取json数据的工具。 |
|
用于查询DataForSeo Google搜索API的工具。 |
|
工具使用Dataherald SDK 进行查询。 |
|
Create a new model by parsing and validating input data from keyword arguments. |
|
DuckDuckGo搜索工具的输入。 |
|
查询DuckDuckGo搜索API并获取json格式数据的工具。 |
|
用于查询DuckDuckGo搜索API的工具。 |
|
用于在数据分析的沙盒环境中运行Python代码的工具。 |
|
E2BDataAnalysisTool的参数。 |
|
描述已上传路径及其远程路径。 |
|
遍历AST并输出抽象语法的源代码;原始格式将被忽略。 |
|
用于查询Eden AI语音转文本API的工具。 |
|
用于查询Eden AI文本转语音API的工具。 要使用,您应该设置环境变量``EDENAI_API_KEY``并使用您的API令牌。 您可以在此处找到您的令牌:https://app.edenai.run/admin/account/settings |
|
用于所有EdenAI工具的基础工具。 您应该设置环境变量``EDENAI_API_KEY``并使用您的API令牌。 您可以在此处找到您的令牌:https://app.edenai.run/admin/account/settings |
|
工具,用于查询Eden AI明确图像检测。 |
|
|
用于查询Eden AI目标检测API的工具。 |
查询Eden AI身份解析API的工具。 |
|
查询Eden AI发票解析API的工具。 |
|
用于查询Eden AI明确文本检测的工具。 |
|
模型可用于Eleven Labs Text2Speech。 |
|
模型可用于Eleven Labs Text2Speech。 |
|
工具,用于查询Eleven Labs Text2Speech API。 |
|
复制文件的工具。 |
|
复制文件工具的输入。 |
|
删除文件的工具。 |
|
删除文件工具的输入。 |
|
文件搜索工具的输入。 |
|
在子目录中搜索与正则表达式模式匹配的文件的工具。 |
|
ListDirectoryTool的输入。 |
|
工具,列出指定文件夹中的文件和目录。 |
|
MoveFileTool的输入。 |
|
工具,用于移动文件。 |
|
ReadFileTool的输入。 |
|
工具:读取文件的工具。 |
|
文件系统工具的Mixin。 |
|
根目录之外的路径错误。 |
|
写文件工具的输入。 |
|
工具,用于将文件写入磁盘。 |
|
工具用于与GitHub API 进行交互。 |
|
与GitLab API交互的工具。 |
|
用于Gmail工具的基类。 |
|
创建草稿工具的输入。 |
|
用于创建Gmail草稿邮件的工具。 |
|
工具:从Gmail中通过ID获取消息。 |
|
获取GetMessageTool的输入。 |
|
获取GetMessageTool的输入。 |
|
从Gmail获取特定ID的邮件线程的工具。 |
|
在Gmail中搜索消息或线程的工具。 |
|
|
资源搜索的枚举器。 |
搜索Gmail工具的输入。 |
|
发送消息到Gmail的工具。 |
|
发送消息工具的输入。 |
|
工具,通过Golden API进行查询并返回JSON格式的能力。 |
|
[Deprecated] 工具,用于查询Google Cloud Text to Speech API。 |
|
使用Google Finance API 查询工具。 |
|
查询Google Jobs API 的工具。 |
|
使用Google Lens API 查询工具。 |
|
GooglePlacesTool的输入。 |
|
[Deprecated] 工具,用于查询Google地点API。 |
|
使用Google搜索API查询工具。 |
|
[Deprecated] 使用Google搜索API查询并返回json的工具。 |
|
[Deprecated] 使用Google搜索API查询工具。 |
|
查询Serper.dev Google搜索API并返回json的工具。 |
|
用于查询Serper.dev Google搜索API的工具。 |
|
工具,用于查询Google趋势API。 |
|
用于查询GraphQL API的基本工具。 |
|
用户输入工具。 |
|
IFTTT Webhook. |
|
用于查询Atlassian Jira API的工具。 |
|
用于从JSON规范中获取值的工具。 |
|
用于列出JSON规范中键的工具。 |
|
JSON规范的基类。 |
|
训练语言模型的工具。 |
|
|
可训练语言模型的协议。 |
搜索Merriam-Webster API的工具。 |
|
[Deprecated] 工具,用于查询隐喻搜索API并返回JSON。 |
|
Create a new model by parsing and validating input data from keyword arguments. |
|
更新会话工具的输入。 |
|
工具,用于关闭提供字段的现有Multion浏览器窗口。 |
|
用于CreateSessionTool的输入。 |
|
创建一个使用提供字段创建新的多标签浏览器窗口的工具。 |
|
工具,用于使用提供的字段更新现有的多页面浏览器窗口。 |
|
更新会话工具的输入。 |
|
用于查询Atlassian Jira API的工具。 |
|
Nuclia Understanding API的输入。 |
|
用于处理文件的Nuclia Understanding API工具。 |
|
Office 365工具的基类。 |
|
|
发送消息工具的输入。 |
工具:用于在Office 365中创建草稿邮件。 |
|
搜索Office 365中的日历事件。 |
|
搜索电子邮件工具的输入。 |
|
在Office 365中搜索电子邮件消息。 |
|
搜索电子邮件工具的输入。 |
|
用于在Office 365中发送日历事件的工具。 |
|
创建事件工具的输入。 |
|
在Office 365中发送电子邮件。 |
|
发送消息工具的输入。 |
|
|
使用OpenAI DALLE生成图像的工具。 |
一个单个API操作的模型。 |
|
一个用于查询、路径、标头或cookie参数的属性模型。 |
|
API属性的基本模型。 |
|
属性的位置。 |
|
一个请求体的模型。 |
|
一个请求体属性的模型。 |
|
查询OpenWeatherMap API的工具。 |
|
用于查询Passio Nutrition AI API的工具。 |
|
Passio营养AI工具的输入。 |
|
浏览器工具的基类。 |
|
工具:根据给定的CSS选择器点击元素。 |
|
ClickTool的输入。 |
|
获取当前网页URL的工具。 |
|
提取页面上的所有超链接。 |
|
|
提取超链接工具的输入。 |
工具:用于提取当前网页上的所有文本。 |
|
用于获取当前网页中与CSS选择器匹配的元素的工具。 |
|
获取元素工具的输入。 |
|
工具用于将浏览器导航到URL。 |
|
导航工具输入的输入。 |
|
在浏览器历史记录中导航回上一页。 |
|
AI插件定义。 |
|
用于获取AI插件的OpenAPI规范的工具。 |
|
AIPluginTool的架构。 |
|
API配置。 |
|
工具,用于从Polygon获取给定股票的特定日期范围内的聚合条形图(股票价格)。 |
|
PolygonAggregates的输入。 |
|
Polygon财务API的输入 |
|
从Polygon获取股票代码的财务数据的工具。 |
|
Polygon的最新报价API的输入 |
|
从Polygon获取股票的最新报价的工具 |
|
多边形股票新闻API的输入 |
|
从Polygon获取给定股票的最新新闻的工具 |
|
用于获取有关PowerBI数据集的元数据的工具。 |
|
获取表名的工具。 |
|
用于查询Power BI数据集的工具。 |
|
搜索PubMed API的工具。 |
|
用于查询特定subreddit上的帖子的工具。 |
|
Reddit搜索的输入。 |
|
请求工具的基类。 |
|
用于向API端点发出DELETE请求的工具。 |
|
用于向API端点发出GET请求的工具。 |
|
用于向API端点发出PATCH请求的工具。 |
|
用于向API端点发出POST请求的工具。 |
|
用于向API端点发出PUT请求的工具。 |
|
用于SceneXplain的输入。 |
|
解释图像的工具。 |
|
查询SearchApi.io搜索API并返回JSON的工具。 |
|
查询SearchApi.io搜索API的工具。 |
|
工具用于查询一个 Searx 实例,并返回 JSON。 |
|
工具,用于查询Searx实例。 |
|
工具,用于搜索semanticscholar API。 |
|
语义学者工具的输入。 |
|
Bash Shell工具的命令。 |
|
用于运行shell命令的工具。 |
|
Slack工具的基类。 |
|
获取Slack频道信息的工具。 |
|
工具,用于获取Slack消息。 |
|
输入模式用于 SlackGetMessages。 |
|
调度消息工具的输入。 |
|
Slack中用于调度消息的工具。 |
|
发送消息工具的输入。 |
|
在Slack中发送消息的工具。 |
|
复制文件工具的输入。 |
|
添加了睡眠功能的工具。 |
|
用于与Spark SQL交互的基本工具。 |
|
用于获取有关Spark SQL元数据的工具。 |
|
获取表名的工具。 |
|
使用LLM来检查查询是否正确。 改编自https://www.patterns.app/blog/2023/01/18/crunchbot-sql-analyst-gpt/ |
|
用于查询Spark SQL的工具。 |
|
SQL数据库交互的基础工具。 |
|
用于获取SQL数据库元数据的工具。 |
|
获取表名的工具。 |
|
使用LLM来检查查询是否正确。 改编自https://www.patterns.app/blog/2023/01/18/crunchbot-sql-analyst-gpt/ |
|
工具用于查询SQL数据库。 |
|
使用StackExchange的工具 |
|
搜索Steam Web API的工具。 |
|
生成支持的图像模型。 |
|
|
用于从文本提示生成图像的工具。 |
查询 Tavily 搜索 API 并获取答案的工具。 |
|
Tavily工具的输入。 |
|
查询 Tavily 搜索 API 并获取 JSON 数据的工具。 |
|
使用VectorStore的工具的基类。 |
|
用于VectorDBQA链的工具。需要使用名称和链进行初始化。 |
|
工具用于VectorDBQAWithSources链。 |
|
搜索Wikidata API的工具。 |
|
搜索维基百科API的工具。 |
|
使用Wolfram Alpha SDK 进行查询的工具。 |
|
YahooFinanceNews工具的输入。 |
|
在Yahoo Finance上搜索财经新闻的工具。 |
|
you.com工具的输入模式。 |
|
搜索you.com API的工具。 |
|
查询YouTube的工具。 |
|
返回与当前用户关联(与设置的api_key关联)的所有公开(已启用)操作的列表。在这里更改您的公开操作:https://nla.zapier.com/demo/start/ |
|
执行由action_id标识的操作,必须由当前用户(与设置的api_key相关联)公开(启用)。在此更改您的公开操作:https://nla.zapier.com/demo/start/ |
Functions¶
|
使用 AIN 区块链进行身份验证 |
使用Amadeus API 进行身份验证 |
|
检测文件是本地的还是远程的。 |
|
从URL下载音频到本地。 |
|
|
检测文件是本地的还是远程的。 |
|
从URL下载音频到本地。 |
将文件转换为base64。 |
|
|
获取文件的前n行。 |
|
从字符串中删除Markdown代码。 |
已弃用。请使用DuckDuckGoSearchRun代替。 |
|
如果缺少最后一行的打印语句,则添加打印语句。有时,LLM生成的代码没有`print(variable_name)`,而是尝试通过写入`variable_name`(例如在REPL中)来仅打印变量。该方法检查生成的Python代码的AST,并在缺少打印语句的情况下将打印语句添加到最后一行。 |
|
在seq中的每个项目上调用f,在调用之间调用inter()。 |
|
解析文件并将其漂亮地打印到输出。 |
|
|
解析相对路径,如果不在根目录内则引发错误。 |
检查路径是否相对于根目录。 |
|
构建一个Gmail服务。 |
|
清理电子邮件正文。 |
|
获取凭据。 |
|
导入谷歌库。 |
|
导入googleapiclient.discovery.build函数。 |
|
导入InstalledAppFlow类。 |
|
用户输入工具。 |
|
使用Microsoft Graph API进行身份验证 |
|
清理消息或事件的主体。 |
|
懒加载引入playwright浏览器。 |
|
异步获取浏览器的当前页面。 |
|
|
创建一个异步的Playwright浏览器。 |
|
创建一个playwright浏览器。 |
获取浏览器的当前页面。 参数: browser:要获取当前页面的浏览器。 |
|
运行一个异步协程。 |
|
将yaml或json序列化的规范转换为字典。 |
|
使用Slack API 进行身份验证。 |
|
|
上传一个数据块到已签名的URL,并返回公共URL。 |
langchain_community.utilities
¶
实用工具 是与第三方系统和软件包集成的工具。
其他LangChain类使用 实用工具 与第三方系统和软件包进行交互。
Classes¶
用于AlphaVantage API的货币汇率包装器。 |
|
封装了Apify。 要使用,应安装``apify-client`` python包, 并设置环境变量``APIFY_API_TOKEN``为您的API密钥,或将 `apify_api_token`作为构造函数的一个命名参数传递。 |
|
Arcee 文档。 |
|
Arcee文档的适配器 |
|
Arcee文档的来源。 |
|
|
Arcee API可用的路由作为枚举器。 |
|
Arcee API的封装器。 |
用于DALM检索和生成的过滤器。 |
|
|
用作DALM检索的过滤器类型作为枚举器可用。 |
封装了ArxivAPI。 |
|
AskNews API的包装器。 |
|
|
设置AstraDBEnvironment为枚举器的模式。 |
AWS Lambda SDK的包装器。 要使用,您应该已安装``boto3``包 并且从AWS控制台或CLI构建了lambda函数。使用``aws configure``设置您的AWS凭据 |
|
bibtexparser的封装。 |
|
Bing搜索API的封装。 |
|
封装了Brave搜索引擎。 |
|
|
|
Apache Cassandra®数据库包装器。 |
|
数据库模式中出现错误时引发的异常。 |
|
Create a new model by parsing and validating input data from keyword arguments. |
|
|
列表的组件类。 |
Clickup API的封装器。 |
|
所有组件的基类。 |
|
|
成员的组件类。 |
|
空间的组件类。 |
|
任务的类。 |
|
团队的组件类。 |
用于OpenAI的DALL-E图像生成器的包装器。 |
|
封装了DataForSeo API。 |
|
数据传送包装器。 |
|
|
封装了Dria API。 |
DuckDuckGo搜索API的封装器。 |
|
GitHub API的包装器。 |
|
GitLab API的封装。 |
|
黄金的包装器。 |
|
包装器用于SerpApi的Google Finance API |
|
包装器用于SerpApi的Google Scholar API |
|
包装器用于SerpApi的Google Lens API |
|
[Deprecated] 封装了Google Places API。 |
|
包装器用于Google Scholar API |
|
[Deprecated] 包装了Google搜索API。 |
|
包装器,用于Serper.dev谷歌搜索API。 |
|
封装了SerpApi的Google Scholar API |
|
封装了GraphQL API。 |
|
Infobip API的消息传递包装器。 |
|
Jira API的封装。 |
|
用于查询阿里云MaxCompute表的接口。 |
|
Merriam-Webster的包装器。 |
|
Metaphor Search API的包装器。 |
|
Create a new model by parsing and validating input data from keyword arguments. |
|
NASA API的封装器。 |
|
alias of |
|
|
包含流式音频的消息。 |
alias of |
|
alias of |
|
alias of |
|
一个可运行的程序,使用NVIDIA Riva执行自动语音识别(ASR)。 |
|
Riva音频编码的可能选择的枚举。 |
|
用于连接到Riva服务的身份验证配置。 |
|
一组常见的Riva设置。 |
|
一个可运行的程序,使用NVIDIA Riva执行文本转语音(TTS)。 |
|
一个空的哨兵类型。 |
|
|
HTTP动词的枚举器。 |
OpenAPI模型,用于删除规范中格式错误的部分。 |
|
用于使用PyOWM的OpenWeatherMap API的包装器。 |
|
|
获取摘要 参数: conn: Oracle连接, params: 摘要参数, proxy: 代理 |
封装了OutlineAPI。 |
|
管理NutritionAI API的令牌。 |
|
用于防止存储在磁盘上的Mixin。 |
|
Passio Nutrition AI API的封装器。 |
|
Pebblo AI 应用程序。 |
|
Pebblo文档。 |
|
Pebblo框架实例。 |
|
将page_content作为位置参数或命名参数传入。 |
|
Pebblo运行时。 |
|
Polygon API的包装器。 |
|
端口密钥配置。 |
|
根据数据集ID和凭据或令牌创建PowerBI引擎。 |
|
对PubMed API的封装。 |
|
模拟一个独立的Python REPL。 |
|
Reddit API的包装器 |
|
|
在输入字符串中转义标点符号。 |
Rememberizer API的封装器。 |
|
轻量级的requests库封装。 |
|
轻量级的requests库包装器,支持异步操作。 |
|
对requests的包装,用于处理身份验证和异步操作。 |
|
alias of |
|
轻量级的requests库包装器,支持异步。 |
|
用于SceneXplain API的包装器。 |
|
封装了SearchApi API。 |
|
在搜索API结果周围的类似字典的包装器。 |
|
封装了Searx API。 |
|
包装了对semanticscholar.org API的调用。 https://github.com/danielnsilva/semanticscholar |
|
上下文管理器,用于隐藏打印。 |
|
封装了SerpAPI。 |
|
|
SparkSQL是一个用于与Spark SQL交互的实用类。 |
|
SQLAlchemy对数据库的封装。 |
Stack Exchange API的封装器。 |
|
Steam API的封装器。 |
|
Tavily搜索API的封装器。 |
|
访问 TensorFlow 数据集。 |
|
使用Twilio的消息客户端。 |
|
封装了对Wikidata API的调用。 |
|
封装了WikipediaAPI。 |
|
Wolfram Alpha的封装器。 |
|
来自you.com API的输出。 |
|
解析一个片段的输出。 |
|
来自you.com的单个点击,可能包含多个片段 |
|
来自you.com的单个点击的元数据 |
|
包装器,用于you.com搜索API。 |
|
Zapier NLA的包装器。 |
Functions¶
获取文本字符串中标记的数量。 |
|
获取文本字符串的标记ID。 |
|
将Cassandra响应future包装在一个asyncio future中。 |
|
|
从字典中提取元素。 |
|
从URL获取数据。 |
|
从字典中获取第一个id。 |
|
获取文件夹的ID。 |
|
获取列表的ID。 |
|
获取空间ID。 |
|
获取团队ID。 |
|
解析JSON字符串并返回解析后的对象。 |
通过创建一个组件来解析字典,然后将其转换回字典。 |
|
从经过处理的文本中恢复原始的敏感数据。 |
|
对输入字符串或字符串字典进行清理,将敏感数据替换为占位符。 |
|
检查HTTP响应是否可重试。 |
|
返回本地文件/目录的绝对本地路径,对于网络相关路径,原样返回。 |
|
获取本地运行时的IP地址。 |
|
根据文档中存在的键,返回基于加载器源的绝对源路径。 |
|
|
返回加载器类型,可以是文件、目录或内存中的一种。 |
获取当前框架和运行时详情。 |
|
在包含空格的表名周围添加单引号。 |
|
|
将一个JSON对象转换为一个markdown表格。 |
检查是否安装了正确的Redis模块。 |
|
|
从给定的连接URL获取一个redis客户端。这个辅助函数接受Redis服务器的URL(TCP,带/不带TLS或UnixSocket)以及Redis Sentinel连接。 |
|
根据最大字符串长度,将字符串截断为一定数量的单词。 |
为Vertex / Palm LLMs创建一个重试装饰器。 |
|
|
返回一个自定义用户代理标头。 |
|
初始化 Vertex AI。 |
从Google Cloud Storage加载图像。 |
|
引发与Vertex SDK不可用相关的ImportError。 |
langchain_community.utils
¶
LangChain的实用功能。
Classes¶
代表Ernie API的可调用函数。 |
|
代表Ernie API的可调用函数。 |
Functions¶
|
将Pydantic模型转换为Ernie API的函数描述。 |
将Pydantic模型转换为Ernie API的函数描述。 |
|
|
返回一个自定义用户代理标头。 |
两个等宽矩阵之间的逐行余弦相似度。 |
|
|
逐行计算余弦相似度,可选择进行top-k和得分阈值过滤。 |
返回OpenAI API是v1还是更高版本。 |
langchain_community.vectorstores
¶
向量存储 存储嵌入数据并执行向量搜索。
存储和检索非结构化数据最常见的方法之一是将其嵌入并存储生成的嵌入向量,然后查询存储库并检索与嵌入查询“最相似”的数据。
类层次结构:
VectorStore --> <name> # 例: Annoy, FAISS, Milvus
BaseRetriever --> VectorStoreRetriever --> <name>Retriever # 例: VespaRetriever
主要辅助功能:
Embeddings, Document
Classes¶
|
`Aerospike`向量存储。 |
|
阿里云开放搜索`Alibaba Cloud OpenSearch`向量存储。 |
|
阿里云 Opensearch 客户端配置。 |
|
`AnalyticDB`(分布式PostgreSQL)向量存储。 |
|
Annoy 向量存储。 |
|
Apache Doris 向量存储。 |
Apache Doris客户端配置。 |
|
|
[Deprecated] |
|
Atlas向量存储。 |
|
AwaDB 向量存储。 |
Azure Cosmos DB for MongoDB vCore 向量存储。 |
|
Cosmos DB相似性类型作为枚举器。 |
|
|
Cosmos DB向量搜索类型作为枚举器。 |
|
Azure Cognitive Search 向量存储。 |
使用`Azure Cognitive Search`的检索器。 |
|
|
|
Baidu Elasticsearch 向量存储。 |
|
百度 VectorDB 作为向量存储。 |
|
百度 VectorDB 连接参数。 |
|
|
百度 VectorDB 表参数。 |
|
[Deprecated] Google Cloud BigQuery向量存储。 |
|
Apache Cassandra(R) 用于向量存储工作负载。 |
|
ChromaDB 向量存储。 |
|
`Clarifai AI`向量存储。 |
|
ClickHouse VectorSearch 向量存储。 |
`ClickHouse`客户端配置。 |
|
Couchbase Vector Store 矢量存储。 |
|
`DashVector`向量存储。 |
|
|
Databricks Vector Search 向量存储。 |
Activeloop Deep Lake 向量存储。 |
|
|
Dingo 向量存储。 |
基类,用于基于`DocArray`的向量存储。 |
|
HnswLib 使用 DocArray 包进行存储。 |
|
内存中的`DocArray`存储用于精确搜索。 |
|
文档数据库相似性类型作为枚举器。 |
|
Amazon DocumentDB (with MongoDB compatibility) 向量存储。 有关更多详细信息,请参考官方向量搜索文档: https://docs.aws.amazon.com/documentdb/latest/developerguide/vector-search.html |
|
|
DuckDB 矢量存储。 |
ecloud Elasticsearch 向量存储。 |
|
[Deprecated] [已弃用] 使用k-最近邻搜索(k-NN)向量存储的`Elasticsearch`。 |
|
[Deprecated] ElasticVectorSearch 使用向量的暴力搜索方法。 |
|
[Deprecated] 使用`HNSW`算法进行近似检索策略。 |
|
用于`Elasticsearch`检索策略的基类。 |
|
[Deprecated] `Elasticsearch`向量存储。 |
|
[Deprecated] 使用`script_score`查询的精确检索策略。 |
|
[Deprecated] 使用`text_expansion`处理器的稀疏检索策略。 |
|
|
封装了Epsilla向量数据库。 |
|
Meta Faiss 向量存储。 |
|
SAP HANA云矢量引擎 |
|
Hippo 向量存储。 |
|
Hologres API 向量存储。 |
|
用于`Infinispan` REST接口的辅助类。 |
``Infinispan` VectorStore接口。 |
|
使用字典实现的内存向量存储的实现。 使用numpy计算搜索的余弦相似度。 |
|
|
Jaguar API 向量存储。 |
|
KDB.AI 向量存储。 |
|
一些已知嵌入的默认维度。 |
距离策略的枚举器。 |
|
|
Kinetica 向量存储。 |
Kinetica 客户端配置。 |
|
|
`LanceDB`向量存储。 |
用于灯笼嵌入存储的基类。 |
|
距离策略的枚举器。 |
|
|
`Postgres`与`lantern`扩展作为向量存储。 |
查询结果。 |
|
使用LLMRails实现向量存储。 |
|
LLMRails的检索器。 |
|
|
`Marqo`向量存储。 |
[Deprecated] `Google Vertex AI Vector Search`(之前称为Matching Engine)向量存储。 |
|
|
`Meilisearch`向量存储。 |
|
`Milvus`向量存储。 |
`Momento Vector Index`(MVI)向量存储。 |
|
[Deprecated] MongoDB Atlas Vector Search 向量存储。 |
|
|
`MyScale`向量存储。 |
MyScale客户端配置。 |
|
我的规模向量存储没有元数据列 |
|
|
索引类型的枚举器。 |
|
Neo4j 向量索引。 |
距离策略的枚举器。 |
|
|
NucliaDB向量存储。 |
|
Amazon OpenSearch Vector Engine 向量存储。 |
|
OracleVS 向量存储。 |
连接到 Pathway Vector 存储的 VectorStore。 |
|
|
所有SQL存储的基础模型。 |
集合存储。 |
|
|
嵌入式存储。 |
|
使用`pg_embedding`扩展作为向量存储的`Postgres`。 |
查询结果。 |
|
|
使用pgvecto_rs支持的VectorStore。 |
|
SQL存储的基本模型。 |
距离策略的枚举器。 |
|
|
[Deprecated] Postgres/PGVector 向量存储。 |
|
|
|
[Deprecated] `Qdrant`向量存储。 |
与`Qdrant`相关的异常。 |
|
|
Redis向量数据库。 |
用于Redis VectorStore的检索器。 |
|
RedisFilterFields的集合。 |
|
RedisFilterFields的逻辑表达式。 |
|
用于RedisFilterFields的基类。 |
|
RedisFilterOperator枚举用于创建RedisFilterExpressions。 |
|
RedisFilterField代表Redis索引中的一个数值字段。 |
|
RedisFilterField代表Redis索引中的一个标签。 |
|
RedisFilterField代表Redis索引中的文本字段。 |
|
Redis中用于平面向量字段的模式。 |
|
Redis中HNSW向量字段的模式。 |
|
Redis中数字字段的模式。 |
|
Redis向量字段的距离度量。 |
|
用于Redis字段的基类。 |
|
Redis索引的架构。 |
|
用于Redis向量字段的基类。 |
|
Redis中标签字段的模式。 |
|
Redis中文本字段的模式。 |
|
|
`Relyt`(分布式PostgreSQL)向量存储。 |
|
Rockset 向量存储。 |
|
ScaNN 向量存储。 |
|
`SemaDB`向量存储。 |
SingleStore DB 向量存储。 |
|
|
用于序列化数据的基类。 |
|
使用`bson` python包将数据序列化为二进制JSON。 |
|
使用Python标准库中的json包将数据序列化为JSON格式。 |
使用`pyarrow`包将数据序列化为`Apache Parquet`格式。 |
|
基于`scikit-learn`库`NearestNeighbors`的简单内存向量存储。 |
|
SKLearnVectorStore引发的异常。 |
|
|
使用VSS扩展的SQLite作为向量数据库。 |
|
StarRocks 向量存储。 |
StarRocks客户端配置。 |
|
Supabase Postgres 向量存储。 |
|
SurrealDB作为向量存储。 |
|
|
Tair 向量存储。 |
腾讯向量数据库连接参数。 |
|
腾讯向量数据库索引参数。 |
|
腾讯向量数据库的元数据字段。 |
|
腾讯 VectorDB 是一个向量存储库。 |
|
使用ThirdAI的NeuralDB Enterprise Python客户端的Vectorstore。 |
|
使用ThirdAI的NeuralDB的Vectorstore。 |
|
TiDB 向量存储。 |
|
|
`Tigris`向量存储。 |
|
TileDB向量存储。 |
时序Postgres向量存储 |
|
|
`Typesense`向量存储。 |
Upstash Vector向量存储 |
|
|
USearch 向量存储。 |
|
计算向量之间距离的距离策略的枚举器。 |
|
Vald向量数据库。 |
|
Intel Lab的VDMS用于向量存储工作负载。 |
|
初始化vearch向量存储 标志1表示集群,0表示独立运行 |
|
用于最大边际相关性(MMR)搜索的配置。 |
用于生成摘要的配置。 |
|
|
Vectara API 向量存储。 |
用于Vectara查询的配置。 |
|
`Vectara`的检索器。 |
|
|
Vespa 向量存储。 |
|
vikingdb作为向量存储 |
|
vikingdb连接配置 |
|
VLite是一个简单快速的矢量数据库,用于语义搜索。 |
|
`Weaviate`向量存储。 |
|
`Xata`向量存储。 |
|
Yellowbrick作为一个向量数据库。 例子: .. code-block:: python from langchain_community.vectorstores import Yellowbrick from langchain_community.embeddings.openai import OpenAIEmbeddings . |
|
为 Zep Collection 的配置。 |
|
`Zep`向量存储。 |
|
Zilliz 向量存储。 |
Functions¶
|
从字段中创建元数据。 |
导入 annoy 库,如果不可用则引发错误。 |
|
|
检查字符串是否包含多个子字符串。 参数: s:要检查的字符串。 *args:要检查的子字符串。 |
如果可用,导入faiss,否则引发错误。 如果设置了FAISS_NO_AVX2环境变量,则会被视为 以无AVX2优化加载FAISS。 |
|
导入lancedb包。 |
|
获取嵌入式存储类。 |
|
|
检查字符串是否包含多个子字符串。 参数: s:要检查的字符串。 *args:要检查的子字符串。 |
检查数值是否不是None或空字符串 |
|
将输入数据转换为所需的格式。 |
|
使用运算符组合多个查询。 |
|
构建一个元数据过滤器。 |
|
将字典转换为类似YAML的字符串,不使用外部库。 |
|
删除Lucene特殊字符 |
|
将第一个元素排序以匹配索引名称(如果存在) |
|
|
|
如果异步方法未实现,则调用类的同步方法的装饰器。此装饰器可能仅用于在类中定义为异步的方法。 |
|
检查Redis索引是否存在。 |
|
装饰器,用于检查等号操作符的误用。 |
|
从字典或yaml文件中读取索引模式。 |
|
如果可用,导入`scann`,否则引发错误。 |
|
将向量归一化为单位长度。 |
|
如果DEBUG为True,则打印调试消息。 参数: s:要打印的消息 |
|
从查询中获取一个命名结果。 参数: connection:数据库连接 query:要执行的查询 |
|
|
检查字符串是否具有多个子字符串。 参数: s:要检查的字符串 *args:要在字符串中检查的子字符串 |
将LangChain过滤器翻译为Tencent VectorDB过滤器。 |
|
如果可用,导入tiledb-vector-search,否则引发错误。 |
|
获取文档数组的URI。 |
|
|
从group中获取文档数组的URI。 |
获取向量索引的URI。 |
|
获取向量索引的URI。 |
|
导入usearch(如果可用),否则引发错误。 |
|
过滤掉向量存储不支持的元数据类型。 |
|
计算最大边际相关性。 |
|
|
VDMS服务器的VDMS客户端。 |
|
将嵌入转换为字节。 |