OpenAIWhisperParserLocal#

class langchain_community.document_loaders.parsers.audio.OpenAIWhisperParserLocal(device: str = '0', lang_model: str | None = None, batch_size: int = 8, chunk_length: int = 30, forced_decoder_ids: Tuple[Dict] | None = None)[来源]#

使用OpenAI Whisper模型转录和解析音频文件。

使用OpenAI Whisper模型在本地从transformers进行音频转录。

参数: device - 使用的设备

注意:默认情况下,如果可用,会使用GPU, 如果你想使用CPU,请设置 device = “cpu”

lang_model - 使用的whisper模型,例如“openai/whisper-medium” forced_decoder_ids - 多语言模型中解码器的id状态,

使用示例: from transformers import WhisperProcessor processor = WhisperProcessor.from_pretrained(“openai/whisper-medium”) forced_decoder_ids = WhisperProcessor.get_decoder_prompt_ids(language=”french”,

task="transcribe"

forced_decoder_ids = WhisperProcessor.get_decoder_prompt_ids(language=”french”, task=”translate”)

初始化解析器。

Parameters:
  • device (str) – 使用的设备。

  • lang_model (str | None) – 使用的whisper模型,例如“openai/whisper-medium”。 默认为None。

  • forced_decoder_ids (Tuple[Dict] | None) – 多语言模型中解码器的id状态。 默认为None。

  • batch_size (int) – 用于解码的批量大小 默认为8。

  • chunk_length (int) – 推理过程中使用的块长度。默认为30秒。

方法

__init__([device, lang_model, batch_size, ...])

初始化解析器。

lazy_parse(blob)

懒解析 blob。

parse(blob)

急切地将blob解析为一个或多个文档。

__init__(device: str = '0', lang_model: str | None = None, batch_size: int = 8, chunk_length: int = 30, forced_decoder_ids: Tuple[Dict] | None = None)[source]#

初始化解析器。

Parameters:
  • device (str) – 使用的设备。

  • lang_model (str | None) – 使用的whisper模型,例如“openai/whisper-medium”。 默认为None。

  • forced_decoder_ids (Tuple[Dict] | None) – 多语言模型中解码器的id状态。 默认为None。

  • batch_size (int) – 用于解码的批量大小 默认为8。

  • chunk_length (int) – 推理过程中使用的块长度。默认为30秒。

lazy_parse(blob: Blob) Iterator[Document][source]#

懒解析blob。

Parameters:

blob (Blob)

Return type:

迭代器[文档]

parse(blob: Blob) list[Document]#

急切地将blob解析为一个或多个文档。

这是一个用于交互式开发环境的便捷方法。

生产应用程序应优先使用lazy_parse方法。

子类通常不应重写此解析方法。

Parameters:

blob (Blob) – Blob 实例

Returns:

文档列表

Return type:

列表[Document]