langchain_community.document_loaders.chatgpt.ChatGPTLoader

class langchain_community.document_loaders.chatgpt.ChatGPTLoader(log_file: str, num_logs: int = - 1)[source]

从导出的`ChatGPT`数据加载对话。

初始化一个类对象。

参数:

log_file:日志文件的路径 num_logs:要加载的日志数量。如果为0,则加载所有日志。

Methods

__init__(log_file[, num_logs])

初始化一个类对象。

alazy_load()

一个用于文档的惰性加载器。

aload()

将数据加载到文档对象中。

lazy_load()

一个用于文档的惰性加载器。

load()

将数据加载到文档对象中。

load_and_split([text_splitter])

加载文档并分割成块。块作为文档返回。

Parameters
  • log_file (str) –

  • num_logs (int) –

__init__(log_file: str, num_logs: int = - 1)[source]

初始化一个类对象。

参数:

log_file:日志文件的路径 num_logs:要加载的日志数量。如果为0,则加载所有日志。

Parameters
  • log_file (str) –

  • num_logs (int) –

async alazy_load() AsyncIterator[Document]

一个用于文档的惰性加载器。

Return type

AsyncIterator[Document]

async aload() List[Document]

将数据加载到文档对象中。

Return type

List[Document]

lazy_load() Iterator[Document]

一个用于文档的惰性加载器。

Return type

Iterator[Document]

load() List[Document][source]

将数据加载到文档对象中。

Return type

List[Document]

load_and_split(text_splitter: Optional[TextSplitter] = None) List[Document]

加载文档并分割成块。块作为文档返回。

不要覆盖此方法。应该被视为已弃用!

参数:
text_splitter: 用于分割文档的TextSplitter实例。

默认为RecursiveCharacterTextSplitter。

返回:

文档列表。

Parameters

text_splitter (Optional[TextSplitter]) –

Return type

List[Document]

Examples using ChatGPTLoader