ScrapingAntLoader#
- class langchain_community.document_loaders.scrapingant.ScrapingAntLoader(urls: List[str], *, api_key: str | None = None, scrape_config: dict | None = None, continue_on_failure: bool = True)[source]#
使用ScrapingAnt将URL转换为LLM可访问的Markdown。
欲了解更多详情,请访问:https://docs.scrapingant.com/python-client
初始化客户端。
- Parameters:
urls (List[str]) – 要抓取的网址列表。
api_key (str | None) – ScrapingAnt API 密钥。如果未指定,则必须设置环境变量 SCRAPINGANT_API_KEY。
scrape_config (dict | None) – 来自 ScrapingAntClient.markdown_request 的抓取配置
continue_on_failure (bool) – 是否在抓取URL失败时继续。
方法
__init__
(urls, *[, api_key, scrape_config, ...])初始化客户端。
文档的懒加载器。
aload
()将数据加载到Document对象中。
从ScrapingAnt获取数据。
load
()将数据加载到Document对象中。
load_and_split
([text_splitter])加载文档并将其分割成块。
- __init__(urls: List[str], *, api_key: str | None = None, scrape_config: dict | None = None, continue_on_failure: bool = True) None [来源]#
初始化客户端。
- Parameters:
urls (List[str]) – 要抓取的网址列表。
api_key (str | None) – ScrapingAnt API 密钥。如果未指定,则必须设置环境变量 SCRAPINGANT_API_KEY。
scrape_config (dict | None) – 来自 ScrapingAntClient.markdown_request 的抓取配置
continue_on_failure (bool) – 是否在抓取URL失败时继续。
- Return type:
无
- load_and_split(text_splitter: TextSplitter | None = None) list[Document] #
加载文档并将其分割成块。块以文档形式返回。
不要重写此方法。它应该被视为已弃用!
- Parameters:
text_splitter (可选[TextSplitter]) – 用于分割文档的TextSplitter实例。 默认为RecursiveCharacterTextSplitter。
- Returns:
文档列表。
- Return type:
列表[Document]
使用 ScrapingAntLoader 的示例