ChatGPTLoader#

class langchain_community.document_loaders.chatgpt.ChatGPTLoader(log_file: str, num_logs: int = -1)[来源]#

从导出的ChatGPT数据中加载对话。

初始化一个类对象。

Parameters:
  • log_file (str) – 日志文件的路径

  • num_logs (int) – 要加载的日志数量。如果为0,则加载所有日志。

方法

__init__(log_file[, num_logs])

初始化一个类对象。

alazy_load()

文档的懒加载器。

aload()

将数据加载到Document对象中。

lazy_load()

文档的懒加载器。

load()

将数据加载到Document对象中。

load_and_split([text_splitter])

加载文档并将其分割成块。

__init__(log_file: str, num_logs: int = -1)[源代码]#

初始化一个类对象。

Parameters:
  • log_file (str) – 日志文件的路径

  • num_logs (int) – 要加载的日志数量。如果为0,则加载所有日志。

async alazy_load() AsyncIterator[Document]#

文档的懒加载器。

Return type:

AsyncIterator[Document]

async aload() list[Document]#

将数据加载到Document对象中。

Return type:

列表[Document]

lazy_load() Iterator[Document]#

文档的懒加载器。

Return type:

迭代器[文档]

load() List[Document][source]#

将数据加载到Document对象中。

Return type:

列表[文档]

load_and_split(text_splitter: TextSplitter | None = None) list[Document]#

加载文档并将其分割成块。块以文档形式返回。

不要重写此方法。它应该被视为已弃用!

Parameters:

text_splitter (可选[TextSplitter]) – 用于分割文档的TextSplitter实例。 默认为RecursiveCharacterTextSplitter。

Returns:

文档列表。

Return type:

列表[Document]

使用ChatGPTLoader的示例