IpexLLMBgeEmbeddings#

class langchain_community.embeddings.ipex_llm.IpexLLMBgeEmbeddings[来源]#

基础类:BaseModel, Embeddings

围绕BGE嵌入模型的封装 在Intel CPU和GPU上使用IPEX-LLM优化。

要使用,您应该安装ipex-llmsentence_transformers包。请参考 这里 了解在Intel CPU上的安装方法。

Example on Intel CPU:
from langchain_community.embeddings import IpexLLMBgeEmbeddings

embedding_model = IpexLLMBgeEmbeddings(
    model_name="BAAI/bge-large-en-v1.5",
    model_kwargs={},
    encode_kwargs={"normalize_embeddings": True},
)

请参考 这里 以在Intel GPU上进行安装。

Example on Intel GPU:
from langchain_community.embeddings import IpexLLMBgeEmbeddings

embedding_model = IpexLLMBgeEmbeddings(
    model_name="BAAI/bge-large-en-v1.5",
    model_kwargs={"device": "xpu"},
    encode_kwargs={"normalize_embeddings": True},
)

初始化 sentence_transformer。

param cache_folder: str | None = None#

存储模型的路径。 也可以通过SENTENCE_TRANSFORMERS_HOME环境变量设置。

param embed_instruction: str = ''#

用于嵌入文档的说明。

param encode_kwargs: Dict[str, Any] [Optional]#

调用模型的encode方法时要传递的关键字参数。

param model_kwargs: Dict[str, Any] [Optional]#

传递给模型的关键字参数。

param model_name: str = 'BAAI/bge-small-en-v1.5'#

使用的模型名称。

param query_instruction: str = 'Represent this question for searching relevant passages: '#

用于嵌入查询的说明。

async aembed_documents(texts: list[str]) list[list[float]]#

异步嵌入搜索文档。

Parameters:

文本 (列表[字符串]) – 要嵌入的文本列表。

Returns:

嵌入列表。

Return type:

列表[列表[浮点数]]

async aembed_query(text: str) list[float]#

异步嵌入查询文本。

Parameters:

文本 (str) – 要嵌入的文本。

Returns:

嵌入。

Return type:

列表[浮点数]

embed_documents(texts: List[str]) List[List[float]][source]#

使用HuggingFace变压器模型计算文档嵌入。

Parameters:

文本 (列表[字符串]) – 要嵌入的文本列表。

Returns:

嵌入列表,每个文本对应一个。

Return type:

列表[列表[float]]

embed_query(text: str) List[float][来源]#

使用HuggingFace变压器模型计算查询嵌入。

Parameters:

文本 (str) – 要嵌入的文本。

Returns:

文本的嵌入。

Return type:

列表[float]

使用 IpexLLMBgeEmbeddings 的示例