langchain_community.embeddings.infinity.TinyAsyncOpenAIInfinityEmbeddingClient

class langchain_community.embeddings.infinity.TinyAsyncOpenAIInfinityEmbeddingClient(host: str = 'http://localhost:7797/v1', aiosession: Optional[ClientSession] = None)[source]

辅助工具,用于嵌入Infinity。

这不是Langchain稳定API的一部分,不建议直接使用。

示例: ```python mini_client = TinyAsyncInfinityEmbeddingClient( ) embeds = mini_client.embed(

model=”BAAI/bge-small”, text=[“doc1”, “doc2”]

) # 或者 embeds = await mini_client.aembed(

model=”BAAI/bge-small”, text=[“doc1”, “doc2”]

Methods

__init__([host, aiosession])

aembed(model, texts)

调用模型的嵌入,异步方法

embed(model, texts)

调用模型的嵌入

Parameters
  • host (str) –

  • aiosession (Optional[ClientSession]) –

Return type

None

__init__(host: str = 'http://localhost:7797/v1', aiosession: Optional[ClientSession] = None) None[source]
Parameters
  • host (str) –

  • aiosession (Optional[ClientSession]) –

Return type

None

async aembed(model: str, texts: List[str]) List[List[float]][source]

调用模型的嵌入,异步方法

参数:

model (str): 嵌入模型 texts (List[str]): 要嵌入的句子列表

返回:

List[List[float]]: 每个句子的向量列表

Parameters
  • model (str) –

  • texts (List[str]) –

Return type

List[List[float]]

embed(model: str, texts: List[str]) List[List[float]][source]

调用模型的嵌入

参数:

model (str): 要嵌入的模型 texts (List[str]): 要嵌入的句子列表

返回:

List[List[float]]: 每个句子的向量列表

Parameters
  • model (str) –

  • texts (List[str]) –

Return type

List[List[float]]