LlamaCppEmbeddings#
- class langchain_community.embeddings.llamacpp.LlamaCppEmbeddings[来源]#
基础类:
BaseModel
,Embeddings
llama.cpp 嵌入模型。
要使用,您应该安装llama-cpp-python库,并将Llama模型的路径作为命名参数提供给构造函数。 查看:abetlen/llama-cpp-python
示例
from langchain_community.embeddings import LlamaCppEmbeddings llama = LlamaCppEmbeddings(model_path="/path/to/model.bin")
通过解析和验证来自关键字参数的输入数据来创建一个新模型。
如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。
self 被显式地设为仅位置参数,以允许 self 作为字段名称。
- param device: str | None = None#
使用的设备类型并传递给模型
- param f16_kv: bool = False#
对键/值缓存使用半精度。
- param logits_all: bool = False#
返回所有标记的logits,而不仅仅是最后一个标记。
- param model_path: str = ''#
- param n_batch: int | None = 512#
并行处理的令牌数量。 应该是一个介于1和n_ctx之间的数字。
- param n_ctx: int = 512#
令牌上下文窗口。
- param n_gpu_layers: int | None = None#
要加载到GPU内存中的层数。默认值为None。
- param n_parts: int = -1#
将模型分割成的部分数量。 如果为-1,则自动确定部分数量。
- param n_threads: int | None = None#
使用的线程数。如果为None,则自动确定线程数。
- param seed: int = -1#
种子。如果为-1,则使用随机种子。
- param use_mlock: bool = False#
强制系统将模型保留在内存中。
- param verbose: bool = True#
将详细输出打印到标准错误输出。
- param vocab_only: bool = False#
仅加载词汇表,不加载权重。
- async aembed_documents(texts: list[str]) list[list[float]] #
异步嵌入搜索文档。
- Parameters:
文本 (列表[字符串]) – 要嵌入的文本列表。
- Returns:
嵌入列表。
- Return type:
列表[列表[浮点数]]
- async aembed_query(text: str) list[float] #
异步嵌入查询文本。
- Parameters:
文本 (str) – 要嵌入的文本。
- Returns:
嵌入。
- Return type:
列表[浮点数]
使用 LlamaCppEmbeddings 的示例