TinyAsyncOpenAIInfinityEmbeddingClient#

class langchain_community.embeddings.infinity.TinyAsyncOpenAIInfinityEmbeddingClient(host: str = 'http://localhost:7797/v1', aiosession: ClientSession | None = None)[source]#

嵌入Infinity的辅助工具。

它不是Langchain稳定API的一部分,不鼓励直接使用。

示例

mini_client = TinyAsyncInfinityEmbeddingClient(
)
embeds = mini_client.embed(
    model="BAAI/bge-small",
    text=["doc1", "doc2"]
)
# or
embeds = await mini_client.aembed(
    model="BAAI/bge-small",
    text=["doc1", "doc2"]
)

方法

__init__([host, aiosession])

aembed(model, texts)

调用模型的嵌入,异步方法

embed(model, texts)

调用模型的嵌入

Parameters:
  • host (str)

  • aiosession (ClientSession | None)

__init__(host: str = 'http://localhost:7797/v1', aiosession: ClientSession | None = None) None[来源]#
Parameters:
  • host (str)

  • aiosession (ClientSession | None)

Return type:

async aembed(model: str, texts: List[str]) List[List[float]][来源]#

调用模型的嵌入,异步方法

Parameters:
  • model (str) – 嵌入模型

  • texts (List[str]) – 要嵌入的句子列表。

Returns:

每个句子的向量列表

Return type:

列表[列表[浮点数]]

embed(model: str, texts: List[str]) List[List[float]][来源]#

调用模型的嵌入

Parameters:
  • model (str) – 用于嵌入的模型

  • texts (List[str]) – 要嵌入的句子列表。

Returns:

每个句子的向量列表

Return type:

列表[列表[浮点数]]