langchain_community.document_loaders.parsers.audio.FasterWhisperParser

class langchain_community.document_loaders.parsers.audio.FasterWhisperParser(*, device: Optional[str] = 'cuda', model_size: Optional[str] = None)[source]

使用 faster-whisper 转录和解析音频文件。

faster-whisper 是使用 CTranslate2 重新实现的 OpenAI 的 Whisper 模型,速度比 openai/whisper 快4倍,同时使用更少的内存。通过在 CPU 和 GPU 上进行8位量化,效率可以进一步提高。

它可以自动检测以下14种语言,并将文本转录为它们各自的语言:en, zh, fr, de, ja, ko, ru, es, th, it, pt, vi, ar, tr。

faster-whisper 的 gitbub 仓库链接为: https://github.com/SYSTRAN/faster-whisper

示例:加载 YouTube 视频并将视频语音转录为文档。
from langchain.document_loaders.generic import GenericLoader
from langchain_community.document_loaders.parsers.audio
    import FasterWhisperParser
from langchain.document_loaders.blob_loaders.youtube_audio
    import YoutubeAudioLoader


url="https://www.youtube.com/watch?v=your_video"
save_dir="your_dir/"
loader = GenericLoader(
    YoutubeAudioLoader([url],save_dir),
    FasterWhisperParser()
)
docs = loader.load()

初始化解析器。

参数:

device:可以是”cuda”或”cpu”,根据可用设备而定。 model_size:有四种模型大小可供选择:”base”,”small”,”medium”和”large-v3”,根据可用的GPU内存而定。

Methods

__init__(*[, device, model_size])

初始化解析器。

lazy_parse(blob)

懒惰地解析blob。

parse(blob)

将blob急切地解析为一个文档或多个文档。

Parameters
  • device (Optional[str]) –

  • model_size (Optional[str]) –

__init__(*, device: Optional[str] = 'cuda', model_size: Optional[str] = None)[source]

初始化解析器。

参数:

device:可以是”cuda”或”cpu”,根据可用设备而定。 model_size:有四种模型大小可供选择:”base”,”small”,”medium”和”large-v3”,根据可用的GPU内存而定。

Parameters
  • device (Optional[str]) –

  • model_size (Optional[str]) –

lazy_parse(blob: Blob) Iterator[Document][source]

懒惰地解析blob。

Parameters

blob (Blob) –

Return type

Iterator[Document]

parse(blob: Blob) List[Document]

将blob急切地解析为一个文档或多个文档。

这是一个用于交互式开发环境的便利方法。

生产应用程序应该更倾向于使用lazy_parse方法。

子类通常不应该覆盖这个解析方法。

参数:

blob:Blob实例

返回:

文档列表

Parameters

blob (Blob) –

Return type

List[Document]