Source code for langchain_community.llms.aphrodite

from typing import Any, Dict, List, Optional

from langchain_core.callbacks import CallbackManagerForLLMRun
from langchain_core.language_models import BaseLLM
from langchain_core.outputs import Generation, LLMResult
from langchain_core.pydantic_v1 import Field, root_validator


[docs]class Aphrodite(BaseLLM): """阿芙洛狄忒语言模型。""" model: str = "" """HuggingFace Transformers 模型的名称或路径。""" tensor_parallel_size: Optional[int] = 1 """用于张量并行分布式执行的GPU数量。""" trust_remote_code: Optional[bool] = False """信任远程代码(例如来自HuggingFace)在下载模型和分词器时。""" n: int = 1 """给定提示返回的输出序列数量。""" best_of: Optional[int] = None """从提示生成的输出序列数量。 从这些`best_of`序列中,返回前`n`个序列。 `best_of`必须 >= `n`。当`use_beam_search`为True时,这被视为波束宽度。 默认情况下,`best_of`设置为`n`。""" presence_penalty: float = 0.0 """根据生成的文本迄今为止,对新标记进行惩罚的浮点数。值> 0鼓励模型生成新标记,而值< 0鼓励模型重复标记。""" frequency_penalty: float = 0.0 """根据生成文本中新标记的频率对其进行惩罚的浮点数。以对数形式添加到逻辑值中。""" repetition_penalty: float = 1.0 """根据生成文本中新标记的频率对其进行惩罚的浮点数。以对数的形式应用乘法。""" temperature: float = 1.0 """控制采样随机性的浮点数。较低的值使模型更确定,而较高的值使模型更随机。零等同于贪婪采样。""" top_p: float = 1.0 """控制要考虑的顶部标记的累积概率的浮点数。 必须在(0,1]范围内。设置为1.0以考虑所有标记。""" top_k: int = -1 """控制要考虑的顶部标记数量的整数。设置为-1以考虑所有标记(禁用)。""" top_a: float = 0.0 """控制Top-A采样截断的浮点数。确切的截断值为top_a*max_prob**2。必须在[0,inf]范围内,设为0则禁用。""" min_p: float = 0.0 """控制最小p采样截断的浮点数。确切的截断值为min_p*max_prob。必须在[0,1]范围内,为0时禁用。""" tfs: float = 1.0 """控制尾部自由采样中保留的累积近似曲率的浮点数。必须在(0, 1]范围内。设置为1.0以禁用。""" eta_cutoff: float = 0.0 """控制Eta采样截断阈值的浮点数(一种熵自适应截断采样)。阈值计算为`min(eta, sqrt(eta)*entropy(probs))`。以1e-4为单位指定。设置为0以禁用。""" epsilon_cutoff: float = 0.0 """控制Epsilon采样的截断阈值的浮点数(简单概率阈值截断)。以1e-4为单位指定。设置为0以禁用。""" typical_p: float = 1.0 """控制累积概率的浮点数,该概率表示与预期惊喜最接近的令牌的惊喜程度。必须在(0, 1]范围内。设置为1以禁用。""" mirostat_mode: int = 0 """要使用的mirostat模式。0表示没有mirostat,2表示mirostat v2。 不支持模式1。""" mirostat_tau: float = 0.0 """mirostat工作的目标'surprisal'。范围[0, 无穷)。""" use_beam_search: bool = False """是否使用束搜索而不是采样。""" length_penalty: float = 1.0 """根据序列长度对序列进行惩罚的浮点数。仅在`use_beam_search`为True时使用。""" early_stopping: bool = False """控制束搜索的停止条件。它接受以下值:`True`,在有`best_of`个完整候选项时停止生成;`False`,在生成时应用一种启发式方法,当很不可能找到更好的候选项时停止生成;`never`,其中束搜索过程仅在不能有更好的候选项时停止(标准束搜索算法)。""" stop: Optional[List[str]] = None """生成时停止生成的字符串列表。 返回的输出将不包含停止标记。""" stop_token_ids: Optional[List[int]] = None """生成时停止生成的令牌列表。 返回的输出将包含停止令牌,除非停止令牌是特殊令牌。""" ignore_eos: bool = False """是否忽略EOS标记并在生成EOS标记后继续生成标记。""" max_tokens: int = 512 """每个输出序列生成的最大令牌数。""" logprobs: Optional[int] = None """每个输出标记返回的对数概率数量。""" prompt_logprobs: Optional[int] = None """每个提示标记返回的对数概率数量。""" custom_token_bans: Optional[List[int]] = None """需要禁止生成的令牌ID列表。""" skip_special_tokens: bool = True """是否跳过输出中的特殊标记。默认为True。""" spaces_between_special_tokens: bool = True """是否在输出中的特殊标记之间添加空格。 默认为True。""" logit_bias: Optional[Dict[str, float]] = None """在运行时更改标记预测概率的LogitsProcessors列表。""" dtype: str = "auto" """模型权重和激活的数据类型。""" download_dir: Optional[str] = None """下载和加载权重的目录。(默认为huggingface的默认缓存目录)""" quantization: Optional[str] = None """量化模式要使用。可以是`awq`或`gptq`之一。""" aphrodite_kwargs: Dict[str, Any] = Field(default_factory=dict) """保存任何未明确指定的`aphrodite.LLM`调用有效的模型参数。""" client: Any #: :meta private: @root_validator() def validate_environment(cls, values: Dict) -> Dict: """验证Python包是否存在于环境中。""" try: from aphrodite import LLM as AphroditeModel except ImportError: raise ImportError( "Could not import aphrodite-engine python package. " "Please install it with `pip install aphrodite-engine`." ) # aphrodite_kwargs = values["aphrodite_kwargs"] # if values.get("quantization"): # aphrodite_kwargs["quantization"] = values["quantization"] values["client"] = AphroditeModel( model=values["model"], tensor_parallel_size=values["tensor_parallel_size"], trust_remote_code=values["trust_remote_code"], dtype=values["dtype"], download_dir=values["download_dir"], **values["aphrodite_kwargs"], ) return values @property def _default_params(self) -> Dict[str, Any]: """获取调用Aphrodite时的默认参数。""" return { "n": self.n, "best_of": self.best_of, "max_tokens": self.max_tokens, "top_k": self.top_k, "top_p": self.top_p, "top_a": self.top_a, "min_p": self.min_p, "temperature": self.temperature, "presence_penalty": self.presence_penalty, "frequency_penalty": self.frequency_penalty, "repetition_penalty": self.repetition_penalty, "tfs": self.tfs, "eta_cutoff": self.eta_cutoff, "epsilon_cutoff": self.epsilon_cutoff, "typical_p": self.typical_p, "mirostat_mode": self.mirostat_mode, "mirostat_tau": self.mirostat_tau, "length_penalty": self.length_penalty, "early_stopping": self.early_stopping, "use_beam_search": self.use_beam_search, "stop": self.stop, "ignore_eos": self.ignore_eos, "logprobs": self.logprobs, "prompt_logprobs": self.prompt_logprobs, "custom_token_bans": self.custom_token_bans, "skip_special_tokens": self.skip_special_tokens, "spaces_between_special_tokens": self.spaces_between_special_tokens, "logit_bias": self.logit_bias, } def _generate( self, prompts: List[str], stop: Optional[List[str]] = None, run_manager: Optional[CallbackManagerForLLMRun] = None, **kwargs: Any, ) -> LLMResult: """在给定的提示和输入上运行LLM。""" from aphrodite import SamplingParams # build sampling parameters params = {**self._default_params, **kwargs, "stop": stop} if "logit_bias" in params: del params["logit_bias"] sampling_params = SamplingParams(**params) # call the model outputs = self.client.generate(prompts, sampling_params) generations = [] for output in outputs: text = output.outputs[0].text generations.append([Generation(text=text)]) return LLMResult(generations=generations) @property def _llm_type(self) -> str: """llm的返回类型。""" return "aphrodite"