ScrapingAntLoader#

class langchain_community.document_loaders.scrapingant.ScrapingAntLoader(urls: List[str], *, api_key: str | None = None, scrape_config: dict | None = None, continue_on_failure: bool = True)[source]#

使用ScrapingAnt将URL转换为LLM可访问的Markdown。

欲了解更多详情,请访问:https://docs.scrapingant.com/python-client

初始化客户端。

Parameters:
  • urls (List[str]) – 要抓取的网址列表。

  • api_key (str | None) – ScrapingAnt API 密钥。如果未指定,则必须设置环境变量 SCRAPINGANT_API_KEY。

  • scrape_config (dict | None) – 来自 ScrapingAntClient.markdown_request 的抓取配置

  • continue_on_failure (bool) – 是否在抓取URL失败时继续。

方法

__init__(urls, *[, api_key, scrape_config, ...])

初始化客户端。

alazy_load()

文档的懒加载器。

aload()

将数据加载到Document对象中。

lazy_load()

从ScrapingAnt获取数据。

load()

将数据加载到Document对象中。

load_and_split([text_splitter])

加载文档并将其分割成块。

__init__(urls: List[str], *, api_key: str | None = None, scrape_config: dict | None = None, continue_on_failure: bool = True) None[来源]#

初始化客户端。

Parameters:
  • urls (List[str]) – 要抓取的网址列表。

  • api_key (str | None) – ScrapingAnt API 密钥。如果未指定,则必须设置环境变量 SCRAPINGANT_API_KEY。

  • scrape_config (dict | None) – 来自 ScrapingAntClient.markdown_request 的抓取配置

  • continue_on_failure (bool) – 是否在抓取URL失败时继续。

Return type:

async alazy_load() AsyncIterator[Document]#

文档的懒加载器。

Return type:

AsyncIterator[Document]

async aload() list[Document]#

将数据加载到Document对象中。

Return type:

列表[Document]

lazy_load() Iterator[Document][source]#

从ScrapingAnt获取数据。

Return type:

迭代器[文档]

load() list[Document]#

将数据加载到Document对象中。

Return type:

列表[Document]

load_and_split(text_splitter: TextSplitter | None = None) list[Document]#

加载文档并将其分割成块。块以文档形式返回。

不要重写此方法。它应该被视为已弃用!

Parameters:

text_splitter (可选[TextSplitter]) – 用于分割文档的TextSplitter实例。 默认为RecursiveCharacterTextSplitter。

Returns:

文档列表。

Return type:

列表[Document]

使用 ScrapingAntLoader 的示例