OpenAIEmbeddings#

class langchain_openai.embeddings.base.OpenAIEmbeddings[source]#

基础类:BaseModel, Embeddings

OpenAI嵌入模型集成。

Setup:

安装 langchain_openai 并设置环境变量 OPENAI_API_KEY

pip install -U langchain_openai
export OPENAI_API_KEY="your-api-key"
Key init args — embedding params:
model: str

使用的OpenAI模型名称。

dimensions: Optional[int] = None

生成的输出嵌入应具有的维度数。 仅在text-embedding-3及更高版本的模型中支持。

Key init args — client params:
api_key: Optional[SecretStr] = None

OpenAI API 密钥。

organization: Optional[str] = None

OpenAI 组织 ID。如果未传入,将从环境变量 OPENAI_ORG_ID 中读取。

max_retries: int = 2

生成时的最大重试次数。

request_timeout: Optional[Union[float, Tuple[float, float], Any]] = None

请求OpenAI完成API的超时时间

请参阅参数部分中支持的初始化参数及其描述的完整列表。

Instantiate:
from langchain_openai import OpenAIEmbeddings

embed = OpenAIEmbeddings(
    model="text-embedding-3-large"
    # With the `text-embedding-3` class
    # of models, you can specify the size
    # of the embeddings you want returned.
    # dimensions=1024
)
Embed single text:
input_text = "The meaning of life is 42"
vector = embeddings.embed_query("hello")
print(vector[:3])
[-0.024603435769677162, -0.007543657906353474, 0.0039630369283258915]
Embed multiple texts:
vectors = embeddings.embed_documents(["hello", "goodbye"])
# Showing only the first 3 coordinates
print(len(vectors))
print(vectors[0][:3])
2
[-0.024603435769677162, -0.007543657906353474, 0.0039630369283258915]
Async:
await embed.aembed_query(input_text)
print(vector[:3])

# multiple:
# await embed.aembed_documents(input_texts)
[-0.009100092574954033, 0.005071679595857859, -0.0029193938244134188]

通过解析和验证来自关键字参数的输入数据来创建一个新模型。

如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。

self 被显式地设为仅位置参数,以允许 self 作为字段名称。

param allowed_special: Literal['all'] | Set[str] | None = None#
param check_embedding_ctx_length: bool = True#

是否检查输入的令牌长度,并自动拆分超过embedding_ctx_length的输入。

param chunk_size: int = 1000#

每批嵌入的最大文本数量

param default_headers: Mapping[str, str] | None = None#
param default_query: Mapping[str, object] | None = None#
param deployment: str | None = 'text-embedding-ada-002'#
param dimensions: int | None = None#

生成的输出嵌入应具有的维度数。

仅在text-embedding-3及以后的模型中支持。

param disallowed_special: Literal['all'] | Set[str] | Sequence[str] | None = None#
param embedding_ctx_length: int = 8191#

一次嵌入的最大令牌数。

param headers: Any = None#
param http_async_client: Any | None = None#

可选的httpx.AsyncClient。仅用于异步调用。如果您希望为同步调用使用自定义客户端,则还必须指定http_client。

param http_client: Any | None = None#

可选的httpx.Client。仅用于同步调用。如果您希望为异步调用使用自定义客户端,则还必须指定http_async_client。

param max_retries: int = 2#

生成时的最大重试次数。

param model: str = 'text-embedding-ada-002'#
param model_kwargs: Dict[str, Any] [Optional]#

保存任何适用于create调用但未明确指定的模型参数。

param openai_api_base: str | None [Optional] (alias 'base_url')#

API请求的基本URL路径,如果不使用代理或服务模拟器,请留空。

param openai_api_key: SecretStr | None [Optional] (alias 'api_key')#

如果未提供,则自动从环境变量 OPENAI_API_KEY 推断。

param openai_api_type: str | None [Optional]#
param openai_api_version: str | None [Optional] (alias 'api_version')#

如果未提供,则自动从环境变量 OPENAI_API_VERSION 推断。

param openai_organization: str | None [Optional] (alias 'organization')#

如果未提供,则自动从环境变量 OPENAI_ORG_ID 推断。

param openai_proxy: str | None [Optional]#
param request_timeout: float | Tuple[float, float] | Any | None = None (alias 'timeout')#

请求OpenAI完成API的超时时间。可以是浮点数、httpx.Timeout或None。

param retry_max_seconds: int = 20#

重试之间等待的最大秒数

param retry_min_seconds: int = 4#

重试之间等待的最小秒数

param show_progress_bar: bool = False#

是否在嵌入时显示进度条。

param skip_empty: bool = False#

在嵌入时是否跳过空字符串或引发错误。默认情况下不跳过。

param tiktoken_enabled: bool = True#

对于非OpenAI实现的embeddings API,请将此设置为False,例如 –extensions openai 扩展用于 text-generation-webui

param tiktoken_model_name: str | None = None#

在使用此类时传递给tiktoken的模型名称。 Tiktoken用于计算文档中的令牌数量,以限制它们不超过某个限制。默认情况下,当设置为None时,这将与嵌入模型名称相同。然而,在某些情况下,您可能希望将此嵌入类与tiktoken不支持的模型名称一起使用。这可能包括在使用Azure嵌入或使用许多模型提供商之一时,这些提供商暴露了一个类似OpenAI的API,但使用不同的模型。在这些情况下,为了避免在调用tiktoken时出错,您可以在此处指定要使用的模型名称。

async aembed_documents(texts: List[str], chunk_size: int | None = None) List[List[float]][source]#

异步调用OpenAI的嵌入端点以进行嵌入搜索文档。

Parameters:
  • texts (List[str]) – 要嵌入的文本列表。

  • chunk_size (int | None) – 嵌入的块大小。如果为None,将使用类指定的块大小。

Returns:

嵌入列表,每个文本对应一个。

Return type:

列表[列表[float]]

async aembed_query(text: str) List[float][source]#

异步调用OpenAI的嵌入端点以嵌入查询文本。

Parameters:

文本 (str) – 要嵌入的文本。

Returns:

文本的嵌入。

Return type:

列表[float]

embed_documents(texts: List[str], chunk_size: int | None = None) List[List[float]][source]#

调用OpenAI的嵌入端点以嵌入搜索文档。

Parameters:
  • texts (List[str]) – 要嵌入的文本列表。

  • chunk_size (int | None) – 嵌入的块大小。如果为None,将使用类指定的块大小。

Returns:

嵌入列表,每个文本对应一个。

Return type:

列表[列表[float]]

embed_query(text: str) List[float][source]#

调用OpenAI的嵌入端点以嵌入查询文本。

Parameters:

文本 (str) – 要嵌入的文本。

Returns:

文本的嵌入。

Return type:

列表[float]

使用OpenAIEmbeddings的示例