langchain_community.document_loaders.pyspark_dataframe
.PySparkDataFrameLoader¶
- class langchain_community.document_loaders.pyspark_dataframe.PySparkDataFrameLoader(spark_session: Optional[SparkSession] = None, df: Optional[Any] = None, page_content_column: str = 'text', fraction_of_memory: float = 0.1)[source]¶
加载`PySpark`数据框架。
使用Spark DataFrame对象进行初始化。
- 参数:
spark_session:SparkSession对象。 df:Spark DataFrame对象。 page_content_column:包含页面内容的列的名称。默认为”text”。 fraction_of_memory:要使用的内存分数。默认为0.1。
Methods
__init__
([spark_session, df, ...])使用Spark DataFrame对象进行初始化。
一个用于文档的惰性加载器。
aload
()将数据加载到文档对象中。
获取DataFrame中“可行”行的数量
一个用于加载文档内容的惰性加载器。
load
()从数据框加载。
load_and_split
([text_splitter])加载文档并分割成块。块作为文档返回。
- Parameters
spark_session (Optional[SparkSession]) –
df (Optional[Any]) –
page_content_column (str) –
fraction_of_memory (float) –
- __init__(spark_session: Optional[SparkSession] = None, df: Optional[Any] = None, page_content_column: str = 'text', fraction_of_memory: float = 0.1)[source]¶
使用Spark DataFrame对象进行初始化。
- 参数:
spark_session:SparkSession对象。 df:Spark DataFrame对象。 page_content_column:包含页面内容的列的名称。默认为”text”。 fraction_of_memory:要使用的内存分数。默认为0.1。
- Parameters
spark_session (Optional[SparkSession]) –
df (Optional[Any]) –
page_content_column (str) –
fraction_of_memory (float) –
- load_and_split(text_splitter: Optional[TextSplitter] = None) List[Document] ¶
加载文档并分割成块。块作为文档返回。
不要覆盖此方法。应该被视为已弃用!
- 参数:
- text_splitter: 用于分割文档的TextSplitter实例。
默认为RecursiveCharacterTextSplitter。
- 返回:
文档列表。
- Parameters
text_splitter (Optional[TextSplitter]) –
- Return type
List[Document]