OpenAIWhisperParserLocal#
- class langchain_community.document_loaders.parsers.audio.OpenAIWhisperParserLocal(device: str = '0', lang_model: str | None = None, batch_size: int = 8, chunk_length: int = 30, forced_decoder_ids: Tuple[Dict] | None = None)[来源]#
使用OpenAI Whisper模型转录和解析音频文件。
使用OpenAI Whisper模型在本地从transformers进行音频转录。
参数: device - 使用的设备
注意:默认情况下,如果可用,会使用GPU, 如果你想使用CPU,请设置 device = “cpu”
lang_model - 使用的whisper模型,例如“openai/whisper-medium” forced_decoder_ids - 多语言模型中解码器的id状态,
使用示例: from transformers import WhisperProcessor processor = WhisperProcessor.from_pretrained(“openai/whisper-medium”) forced_decoder_ids = WhisperProcessor.get_decoder_prompt_ids(language=”french”,
task="transcribe"
forced_decoder_ids = WhisperProcessor.get_decoder_prompt_ids(language=”french”, task=”translate”)
初始化解析器。
- Parameters:
device (str) – 使用的设备。
lang_model (str | None) – 使用的whisper模型,例如“openai/whisper-medium”。 默认为None。
forced_decoder_ids (Tuple[Dict] | None) – 多语言模型中解码器的id状态。 默认为None。
batch_size (int) – 用于解码的批量大小 默认为8。
chunk_length (int) – 推理过程中使用的块长度。默认为30秒。
方法
__init__
([device, lang_model, batch_size, ...])初始化解析器。
lazy_parse
(blob)懒解析 blob。
parse
(blob)急切地将blob解析为一个或多个文档。
- __init__(device: str = '0', lang_model: str | None = None, batch_size: int = 8, chunk_length: int = 30, forced_decoder_ids: Tuple[Dict] | None = None)[source]#
初始化解析器。
- Parameters:
device (str) – 使用的设备。
lang_model (str | None) – 使用的whisper模型,例如“openai/whisper-medium”。 默认为None。
forced_decoder_ids (Tuple[Dict] | None) – 多语言模型中解码器的id状态。 默认为None。
batch_size (int) – 用于解码的批量大小 默认为8。
chunk_length (int) – 推理过程中使用的块长度。默认为30秒。