HuggingFaceBgeEmbeddings#
- class langchain_community.embeddings.huggingface.HuggingFaceBgeEmbeddings[source]#
基础类:
BaseModel
,Embeddings
自版本0.2.2起已弃用:请改用
:class:`~langchain_huggingface.HuggingFaceEmbeddings`
。在langchain-community==1.0之前不会移除。HuggingFace 句子转换器嵌入模型。
要使用,您应该安装
sentence_transformers
python包。 要使用Nomic,请确保sentence_transformers
的版本>= 2.3.0。- Bge Example:
from langchain_community.embeddings import HuggingFaceBgeEmbeddings model_name = "BAAI/bge-large-en-v1.5" model_kwargs = {'device': 'cpu'} encode_kwargs = {'normalize_embeddings': True} hf = HuggingFaceBgeEmbeddings( model_name=model_name, model_kwargs=model_kwargs, encode_kwargs=encode_kwargs )
- Nomic Example:
from langchain_community.embeddings import HuggingFaceBgeEmbeddings model_name = "nomic-ai/nomic-embed-text-v1" model_kwargs = { 'device': 'cpu', 'trust_remote_code':True } encode_kwargs = {'normalize_embeddings': True} hf = HuggingFaceBgeEmbeddings( model_name=model_name, model_kwargs=model_kwargs, encode_kwargs=encode_kwargs, query_instruction = "search_query:", embed_instruction = "search_document:" )
初始化 sentence_transformer。
- param cache_folder: str | None = None#
存储模型的路径。 也可以通过SENTENCE_TRANSFORMERS_HOME环境变量设置。
- param embed_instruction: str = ''#
用于嵌入文档的说明。
- param encode_kwargs: Dict[str, Any] [Optional]#
调用模型的encode方法时要传递的关键字参数。
- param model_kwargs: Dict[str, Any] [Optional]#
传递给模型的关键字参数。
- param model_name: str = 'BAAI/bge-large-en'#
使用的模型名称。
- param query_instruction: str = 'Represent this question for searching relevant passages: '#
用于嵌入查询的说明。
- param show_progress: bool = False#
是否显示进度条。
- async aembed_documents(texts: list[str]) list[list[float]] #
异步嵌入搜索文档。
- Parameters:
文本 (列表[字符串]) – 要嵌入的文本列表。
- Returns:
嵌入列表。
- Return type:
列表[列表[浮点数]]
- async aembed_query(text: str) list[float] #
异步嵌入查询文本。
- Parameters:
文本 (str) – 要嵌入的文本。
- Returns:
嵌入。
- Return type:
列表[浮点数]
使用 HuggingFaceBgeEmbeddings 的示例