langchain_community.document_loaders.parsers.audio
.OpenAIWhisperParserLocal¶
- class langchain_community.document_loaders.parsers.audio.OpenAIWhisperParserLocal(device: str = '0', lang_model: Optional[str] = None, batch_size: int = 8, chunk_length: int = 30, forced_decoder_ids: Optional[Tuple[Dict]] = None)[source]¶
使用OpenAI Whisper模型转录和解析音频文件。
使用transformers从本地进行OpenAI Whisper模型的音频转录。
参数: device - 要使用的设备
注意:默认情况下使用GPU(如果可用), 如果要使用CPU,请设置device = “cpu”
lang_model - 要使用的whisper模型,例如”openai/whisper-medium” forced_decoder_ids - 多语言模型解码器的id状态,
使用示例: from transformers import WhisperProcessor processor = WhisperProcessor.from_pretrained(“openai/whisper-medium”) forced_decoder_ids = WhisperProcessor.get_decoder_prompt_ids(language=”french”,
task=”transcribe”)
forced_decoder_ids = WhisperProcessor.get_decoder_prompt_ids(language=”french”, task=”translate”)
初始化解析器。
- 参数:
device:要使用的设备。 lang_model:要使用的whisper模型,例如”openai/whisper-medium”。默认为None。 forced_decoder_ids:多语言模型中解码器的id状态。默认为None。 batch_size:用于解码的批处理大小。默认为8。 chunk_length:推理过程中使用的块长度。默认为30秒。
Methods
__init__
([device, lang_model, batch_size, ...])初始化解析器。
lazy_parse
(blob)懒惰地解析blob。
parse
(blob)将blob急切地解析为一个文档或多个文档。
- Parameters
device (str) –
lang_model (Optional[str]) –
batch_size (int) –
chunk_length (int) –
forced_decoder_ids (Optional[Tuple[Dict]]) –
- __init__(device: str = '0', lang_model: Optional[str] = None, batch_size: int = 8, chunk_length: int = 30, forced_decoder_ids: Optional[Tuple[Dict]] = None)[source]¶
初始化解析器。
- 参数:
device:要使用的设备。 lang_model:要使用的whisper模型,例如”openai/whisper-medium”。默认为None。 forced_decoder_ids:多语言模型中解码器的id状态。默认为None。 batch_size:用于解码的批处理大小。默认为8。 chunk_length:推理过程中使用的块长度。默认为30秒。
- Parameters
device (str) –
lang_model (Optional[str]) –
batch_size (int) –
chunk_length (int) –
forced_decoder_ids (Optional[Tuple[Dict]]) –