SpiderLoader#
- class langchain_community.document_loaders.spider.SpiderLoader(url: str, *, api_key: str | None = None, mode: Literal['scrape', 'crawl'] = 'scrape', params: dict | None = None)[来源]#
使用Spider AI加载网页作为文档。
必须安装Python包spider-client并拥有一个Spider API密钥。 详情请参见https://spider.cloud。
使用API密钥和URL进行初始化。
- Parameters:
url (str) – 要处理的URL。
api_key (str | None) – Spider API 密钥。如果未指定,将从环境变量中读取
SPIDER_API_KEY. (变量)
mode (Literal['scrape', 'crawl']) – 运行加载器的模式。默认为“scrape”。 选项包括“scrape”(单页)和“crawl”(深度爬取子页面)。
params (dict | None) – Spider API 的额外参数。
方法
__init__
(url, *[, api_key, mode, params])使用API密钥和URL进行初始化。
一个用于文档的懒加载器。
aload
()将数据加载到Document对象中。
根据指定模式加载文档。
load
()将数据加载到Document对象中。
load_and_split
([text_splitter])加载文档并将其分割成块。
- __init__(url: str, *, api_key: str | None = None, mode: Literal['scrape', 'crawl'] = 'scrape', params: dict | None = None)[源代码]#
使用API密钥和URL进行初始化。
- Parameters:
url (str) – 要处理的URL。
api_key (str | None) – Spider API 密钥。如果未指定,将从环境变量中读取
SPIDER_API_KEY. (变量)
mode (Literal['scrape', 'crawl']) – 运行加载器的模式。默认为“scrape”。 选项包括“scrape”(单页)和“crawl”(深度爬取子页面)。
params (dict | None) – Spider API 的额外参数。
- load_and_split(text_splitter: TextSplitter | None = None) list[Document] #
加载文档并将其分割成块。块以文档形式返回。
不要重写此方法。它应该被视为已弃用!
- Parameters:
text_splitter (可选[TextSplitter]) – 用于分割文档的TextSplitter实例。 默认为RecursiveCharacterTextSplitter。
- Returns:
文档列表。
- Return type:
列表[Document]
使用 SpiderLoader 的示例