langchain_community.document_loaders.browserless.BrowserlessLoader

class langchain_community.document_loaders.browserless.BrowserlessLoader(api_token: str, urls: Union[str, List[str]], text_content: bool = True)[source]

使用`Browserless`的/content端点加载网页。

使用API令牌和要抓取的URL进行初始化

Attributes

api_token

Browserless API token.

urls

List of URLs to scrape.

Methods

__init__(api_token, urls[, text_content])

使用API令牌和要抓取的URL进行初始化

alazy_load()

一个用于文档的惰性加载器。

aload()

将数据加载到文档对象中。

lazy_load()

从URL中延迟加载文档。

load()

将数据加载到文档对象中。

load_and_split([text_splitter])

加载文档并分割成块。块作为文档返回。

Parameters
  • api_token (str) –

  • urls (Union[str, List[str]]) –

  • text_content (bool) –

__init__(api_token: str, urls: Union[str, List[str]], text_content: bool = True)[source]

使用API令牌和要抓取的URL进行初始化

Parameters
  • api_token (str) –

  • urls (Union[str, List[str]]) –

  • text_content (bool) –

async alazy_load() AsyncIterator[Document]

一个用于文档的惰性加载器。

Return type

AsyncIterator[Document]

async aload() List[Document]

将数据加载到文档对象中。

Return type

List[Document]

lazy_load() Iterator[Document][source]

从URL中延迟加载文档。

Return type

Iterator[Document]

load() List[Document]

将数据加载到文档对象中。

Return type

List[Document]

load_and_split(text_splitter: Optional[TextSplitter] = None) List[Document]

加载文档并分割成块。块作为文档返回。

不要覆盖此方法。应该被视为已弃用!

参数:
text_splitter: 用于分割文档的TextSplitter实例。

默认为RecursiveCharacterTextSplitter。

返回:

文档列表。

Parameters

text_splitter (Optional[TextSplitter]) –

Return type

List[Document]

Examples using BrowserlessLoader