OpenAIEmbeddings#
- class langchain_openai.embeddings.base.OpenAIEmbeddings[source]#
基础类:
BaseModel
,Embeddings
OpenAI嵌入模型集成。
- Setup:
安装
langchain_openai
并设置环境变量OPENAI_API_KEY
。pip install -U langchain_openai export OPENAI_API_KEY="your-api-key"
- Key init args — embedding params:
- model: str
使用的OpenAI模型名称。
- dimensions: Optional[int] = None
生成的输出嵌入应具有的维度数。 仅在text-embedding-3及更高版本的模型中支持。
- Key init args — client params:
- api_key: Optional[SecretStr] = None
OpenAI API 密钥。
- organization: Optional[str] = None
OpenAI 组织 ID。如果未传入,将从环境变量 OPENAI_ORG_ID 中读取。
- max_retries: int = 2
生成时的最大重试次数。
- request_timeout: Optional[Union[float, Tuple[float, float], Any]] = None
请求OpenAI完成API的超时时间
请参阅参数部分中支持的初始化参数及其描述的完整列表。
- Instantiate:
from langchain_openai import OpenAIEmbeddings embed = OpenAIEmbeddings( model="text-embedding-3-large" # With the `text-embedding-3` class # of models, you can specify the size # of the embeddings you want returned. # dimensions=1024 )
- Embed single text:
input_text = "The meaning of life is 42" vector = embeddings.embed_query("hello") print(vector[:3])
[-0.024603435769677162, -0.007543657906353474, 0.0039630369283258915]
- Embed multiple texts:
vectors = embeddings.embed_documents(["hello", "goodbye"]) # Showing only the first 3 coordinates print(len(vectors)) print(vectors[0][:3])
2 [-0.024603435769677162, -0.007543657906353474, 0.0039630369283258915]
- Async:
await embed.aembed_query(input_text) print(vector[:3]) # multiple: # await embed.aembed_documents(input_texts)
[-0.009100092574954033, 0.005071679595857859, -0.0029193938244134188]
通过解析和验证来自关键字参数的输入数据来创建一个新模型。
如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。
self 被显式地设为仅位置参数,以允许 self 作为字段名称。
- param allowed_special: Literal['all'] | Set[str] | None = None#
- param check_embedding_ctx_length: bool = True#
是否检查输入的令牌长度,并自动拆分超过embedding_ctx_length的输入。
- param chunk_size: int = 1000#
每批嵌入的最大文本数量
- param default_headers: Mapping[str, str] | None = None#
- param default_query: Mapping[str, object] | None = None#
- param deployment: str | None = 'text-embedding-ada-002'#
- param dimensions: int | None = None#
生成的输出嵌入应具有的维度数。
仅在text-embedding-3及以后的模型中支持。
- param disallowed_special: Literal['all'] | Set[str] | Sequence[str] | None = None#
- param embedding_ctx_length: int = 8191#
一次嵌入的最大令牌数。
- param headers: Any = None#
- param http_async_client: Any | None = None#
可选的httpx.AsyncClient。仅用于异步调用。如果您希望为同步调用使用自定义客户端,则还必须指定http_client。
- param http_client: Any | None = None#
可选的httpx.Client。仅用于同步调用。如果您希望为异步调用使用自定义客户端,则还必须指定http_async_client。
- param max_retries: int = 2#
生成时的最大重试次数。
- param model: str = 'text-embedding-ada-002'#
- param model_kwargs: Dict[str, Any] [Optional]#
保存任何适用于create调用但未明确指定的模型参数。
- param openai_api_base: str | None [Optional] (alias 'base_url')#
API请求的基本URL路径,如果不使用代理或服务模拟器,请留空。
- param openai_api_key: SecretStr | None [Optional] (alias 'api_key')#
如果未提供,则自动从环境变量 OPENAI_API_KEY 推断。
- param openai_api_type: str | None [Optional]#
- param openai_api_version: str | None [Optional] (alias 'api_version')#
如果未提供,则自动从环境变量 OPENAI_API_VERSION 推断。
- param openai_organization: str | None [Optional] (alias 'organization')#
如果未提供,则自动从环境变量 OPENAI_ORG_ID 推断。
- param openai_proxy: str | None [Optional]#
- param request_timeout: float | Tuple[float, float] | Any | None = None (alias 'timeout')#
请求OpenAI完成API的超时时间。可以是浮点数、httpx.Timeout或None。
- param retry_max_seconds: int = 20#
重试之间等待的最大秒数
- param retry_min_seconds: int = 4#
重试之间等待的最小秒数
- param show_progress_bar: bool = False#
是否在嵌入时显示进度条。
- param skip_empty: bool = False#
在嵌入时是否跳过空字符串或引发错误。默认情况下不跳过。
- param tiktoken_enabled: bool = True#
对于非OpenAI实现的embeddings API,请将此设置为False,例如 –extensions openai 扩展用于 text-generation-webui
- param tiktoken_model_name: str | None = None#
在使用此类时传递给tiktoken的模型名称。 Tiktoken用于计算文档中的令牌数量,以限制它们不超过某个限制。默认情况下,当设置为None时,这将与嵌入模型名称相同。然而,在某些情况下,您可能希望将此嵌入类与tiktoken不支持的模型名称一起使用。这可能包括在使用Azure嵌入或使用许多模型提供商之一时,这些提供商暴露了一个类似OpenAI的API,但使用不同的模型。在这些情况下,为了避免在调用tiktoken时出错,您可以在此处指定要使用的模型名称。
- async aembed_documents(texts: List[str], chunk_size: int | None = None) List[List[float]] [source]#
异步调用OpenAI的嵌入端点以进行嵌入搜索文档。
- Parameters:
texts (List[str]) – 要嵌入的文本列表。
chunk_size (int | None) – 嵌入的块大小。如果为None,将使用类指定的块大小。
- Returns:
嵌入列表,每个文本对应一个。
- Return type:
列表[列表[float]]
- async aembed_query(text: str) List[float] [source]#
异步调用OpenAI的嵌入端点以嵌入查询文本。
- Parameters:
文本 (str) – 要嵌入的文本。
- Returns:
文本的嵌入。
- Return type:
列表[float]
使用OpenAIEmbeddings的示例