pyspark.sql.functions.array_join ¶
-
pyspark.sql.functions.array_join( col : ColumnOrName , delimiter : str , null_replacement : Optional [ str ] = None ) → pyspark.sql.column.Column [source] ¶ -
将 列 中的元素使用 分隔符 连接起来。如果设置了 空值替换 ,则空值将被替换,否则它们将被忽略。
新增于版本 2.4.0。
在版本 3.4.0 中更改: 支持 Spark Connect。
- Parameters
-
-
col
Columnor str -
目标列以进行操作。
- delimiter str
-
用于连接元素的分隔符
- null_replacement str, optional
-
如果设置,则空值将被此值替换
-
col
- Returns
-
-
Column -
字符串类型的一列。连接的值。
-
示例
>>> df = spark.createDataFrame([(["a", "b", "c"],), (["a", None],)], ['data']) >>> df.select(array_join(df.data, ",").alias("joined")).collect() [Row(joined='a,b,c'), Row(joined='a')] >>> df.select(array_join(df.data, ",", "NULL").alias("joined")).collect() [Row(joined='a,b,c'), Row(joined='a,NULL')]