FaunaLoader#

class langchain_community.document_loaders.fauna.FaunaLoader(query: str, page_content_field: str, secret: str, metadata_fields: Sequence[str] | None = None)[source]#

FaunaDB 加载。

Parameters:
  • query (str)

  • page_content_field (str)

  • secret (str)

  • metadata_fields (Sequence[str] | None)

query#

要执行的FQL查询字符串。

Type:

字符串

page_content_field#

包含每页内容的字段。

Type:

字符串

secret#

用于验证FaunaDB的密钥。

Type:

字符串

metadata_fields#

可选的字段名称列表,包含在元数据中。

Type:

可选[序列[str]]

方法

__init__(query, page_content_field, secret)

alazy_load()

一个用于文档的懒加载器。

aload()

将数据加载到Document对象中。

lazy_load()

一个用于文档的懒加载器。

load()

将数据加载到Document对象中。

load_and_split([text_splitter])

加载文档并将其分割成块。

__init__(query: str, page_content_field: str, secret: str, metadata_fields: Sequence[str] | None = None)[source]#
Parameters:
  • query (str)

  • page_content_field (str)

  • secret (str)

  • metadata_fields (Sequence[str] | None)

async alazy_load() AsyncIterator[Document]#

文档的懒加载器。

Return type:

AsyncIterator[Document]

async aload() list[Document]#

将数据加载到Document对象中。

Return type:

列表[Document]

lazy_load() Iterator[Document][source]#

文档的懒加载器。

Return type:

迭代器[文档]

load() list[Document]#

将数据加载到Document对象中。

Return type:

列表[Document]

load_and_split(text_splitter: TextSplitter | None = None) list[Document]#

加载文档并将其分割成块。块以文档形式返回。

不要重写此方法。它应该被视为已弃用!

Parameters:

text_splitter (可选[TextSplitter]) – 用于分割文档的TextSplitter实例。 默认为RecursiveCharacterTextSplitter。

Returns:

文档列表。

Return type:

列表[Document]

使用FaunaLoader的示例