langchain_community.document_loaders.fauna.FaunaLoader

class langchain_community.document_loaders.fauna.FaunaLoader(query: str, page_content_field: str, secret: str, metadata_fields: Optional[Sequence[str]] = None)[source]

从`FaunaDB`加载。

属性:

query (str): 要执行的FQL查询字符串。 page_content_field (str): 包含每个页面内容的字段。 secret (str): 用于对FaunaDB进行身份验证的密钥。 metadata_fields (Optional[Sequence[str]]):

包含在元数据中的字段名称的可选列表。

Methods

__init__(query, page_content_field, secret)

alazy_load()

一个用于文档的惰性加载器。

aload()

将数据加载到文档对象中。

lazy_load()

一个用于文档的惰性加载器。

load()

将数据加载到文档对象中。

load_and_split([text_splitter])

加载文档并分割成块。块作为文档返回。

Parameters
  • query (str) –

  • page_content_field (str) –

  • secret (str) –

  • metadata_fields (Optional[Sequence[str]]) –

__init__(query: str, page_content_field: str, secret: str, metadata_fields: Optional[Sequence[str]] = None)[source]
Parameters
  • query (str) –

  • page_content_field (str) –

  • secret (str) –

  • metadata_fields (Optional[Sequence[str]]) –

async alazy_load() AsyncIterator[Document]

一个用于文档的惰性加载器。

Return type

AsyncIterator[Document]

async aload() List[Document]

将数据加载到文档对象中。

Return type

List[Document]

lazy_load() Iterator[Document][source]

一个用于文档的惰性加载器。

Return type

Iterator[Document]

load() List[Document]

将数据加载到文档对象中。

Return type

List[Document]

load_and_split(text_splitter: Optional[TextSplitter] = None) List[Document]

加载文档并分割成块。块作为文档返回。

不要覆盖此方法。应该被视为已弃用!

参数:
text_splitter: 用于分割文档的TextSplitter实例。

默认为RecursiveCharacterTextSplitter。

返回:

文档列表。

Parameters

text_splitter (Optional[TextSplitter]) –

Return type

List[Document]

Examples using FaunaLoader