0

0

在PySpark中利用数组列与列表交集进行DataFrame过滤的正确姿势

花韻仙語

花韻仙語

发布时间:2025-09-23 17:22:15

|

252人浏览过

|

来源于php中文网

原创

在PySpark中利用数组列与列表交集进行DataFrame过滤的正确姿势

本文详细介绍了如何在PySpark中高效地过滤DataFrame,当需要根据数组列与一个给定Python列表的交集来筛选数据时。核心解决方案是利用pyspark.sql.functions.arrays_overlap函数,并结合lit函数将Python列表中的元素转换为Spark字面量表达式,从而构建正确的过滤条件,避免常见的AnalysisException错误。文章提供了清晰的示例代码和关键概念解释,旨在帮助用户正确实现此类复杂过滤逻辑。

1. 问题背景与挑战

在数据处理中,我们经常需要对包含数组类型列的spark dataframe进行过滤。一个常见的需求是,筛选出那些数组列中至少包含给定python列表(例如 [item1, item2, ...])中一个或多个元素的行。

在SQL中,这种操作非常直观,通常可以使用arrays_overlap函数:

SELECT 
FROM 
WHERE arrays_overlap(, array())

然而,当尝试将这种逻辑直接转换为PySpark时,许多用户会遇到困难。一个常见的错误尝试是:

from pyspark.sql.functions import col, array, arrays_overlap

# 假设 target_list 是一个 Python 列表,如 ['apple', 'banana']
df.filter(arrays_overlap(col("array_column"), array(target_list)))

这段代码通常会导致AnalysisException,错误信息类似于[UNRESOLVED_COLUMN.WITH_SUGGESTION] A column or function parameter with name '' cannot be resolved.。这是因为array()函数在接收非列参数时,期望的是字面量表达式(literal expressions),而不是原始的Python列表元素。虽然array_contains函数可以处理单个元素,但它无法满足与整个列表进行交集判断的需求。

2. 解决方案:结合 lit 函数

解决这个问题的关键在于,将Python列表中的每个元素转换为Spark的字面量表达式(literal expression),然后再用array函数将其组合成一个字面量数组。这可以通过pyspark.sql.functions.lit函数来实现。

lit函数的作用是将一个Python值转换为一个Spark列表达式,这个表达式代表着一个常量值。当我们将列表中的每个元素都通过lit转换后,再将这些字面量表达式传递给array函数,array函数就能正确地构建一个包含这些字面量值的数组。

FreeTTS
FreeTTS

FreeTTS是一个免费开源的在线文本到语音生成解决方案,可以将文本转换成MP3,

下载

正确的PySpark实现如下:

from pyspark.sql import SparkSession
from pyspark.sql.functions import col, array, arrays_overlap, lit

# 1. 初始化 SparkSession
spark = SparkSession.builder.appName("ArrayColumnFilter").getOrCreate()

# 2. 准备示例数据
data = [
    (1, ["apple", "banana", "orange"]),
    (2, ["grape", "kiwi"]),
    (3, ["banana", "strawberry"]),
    (4, ["mango", "pineapple"]),
    (5, ["apple", "grape"])
]
df = spark.createDataFrame(data, ["id", "fruits_array"])
df.printSchema()
df.show()

# 3. 定义用于过滤的 Python 列表
target_list = ["banana", "grape", "lemon"]

# 4. 构建正确的过滤条件
# 使用 map(lit, target_list) 将列表中的每个元素转换为 lit 表达式
# 使用 * 解包这些 lit 表达式作为 array 函数的参数
# 最后,使用 arrays_overlap 进行比较
filtered_df = df.filter(
    arrays_overlap(col("fruits_array"), array(*map(lit, target_list)))
)

# 5. 显示过滤结果
print(f"\n原始DataFrame:")
df.show()

print(f"\n过滤列表:{target_list}")
print("\n过滤后的DataFrame(fruits_array与target_list有交集):")
filtered_df.show()

# 6. 停止 SparkSession
spark.stop()

运行结果示例:

root
 |-- id: long (nullable = true)
 |-- fruits_array: array (nullable = true)
 |    |-- element: string (nullable = true)

+---+--------------------+
| id|        fruits_array|
+---+--------------------+
|  1|[apple, banana, o...|
|  2|       [grape, kiwi]|
|  3|[banana, strawber...|
|  4|[mango, pineapple]|
|  5|       [apple, grape]|
+---+--------------------+

原始DataFrame:
+---+--------------------+
| id|        fruits_array|
+---+--------------------+
|  1|[apple, banana, o...|
|  2|       [grape, kiwi]|
|  3|[banana, strawber...|
|  4|[mango, pineapple]|
|  5|       [apple, grape]|
+---+--------------------+

过滤列表:['banana', 'grape', 'lemon']

过滤后的DataFrame(fruits_array与target_list有交集):
+---+--------------------+
| id|        fruits_array|
+---+--------------------+
|  1|[apple, banana, o...|
|  2|       [grape, kiwi]|
|  3|[banana, strawber...|
|  5|       [apple, grape]|
+---+--------------------+

从结果可以看出,id为1、2、3、5的行被保留,因为它们的fruits_array列与["banana", "grape", "lemon"]存在交集(例如,id=1包含"banana",id=2包含"grape",id=3包含"banana",id=5包含"grape")。

3. 关键概念与注意事项

  • arrays_overlap(array1, array2): 这个函数用于判断两个数组是否有共同的元素。如果存在任何共同元素,则返回True;否则返回False。它是进行数组交集判断的核心。
  • lit(value): lit函数将一个Python字面量(如字符串、数字、布尔值)转换为一个Spark SQL的字面量列。这是在PySpark中构建常量值表达式的常用方法。
  • *`array(expressions)**:array`函数有两种主要用法:
    • 当参数是列名时,它将这些列的值组合成一个新的数组列。例如:array(col("col1"), col("col2"))。
    • 当参数是字面量表达式时,它会创建一个包含这些字面量值的字面量数组。例如:array(lit("a"), lit("b"))。
    • 我们这里的解决方案属于第二种情况,map(lit, target_list)生成了一系列字面量表达式,*操作符将它们解包作为array函数的独立参数。
  • 错误避免: 理解array函数对参数类型的期望是避免AnalysisException的关键。直接传递Python列表array(target_list)会被Spark误解为target_list中的第一个元素是一个列名,因此无法解析。

4. 总结

在PySpark中,当需要使用一个Python列表与DataFrame的数组列进行交集过滤时,务必记住使用pyspark.sql.functions.lit函数将列表中的每个元素转换为Spark字面量表达式。然后,通过array(*map(lit, your_list))的方式构建一个字面量数组,并将其作为arrays_overlap函数的第二个参数。这种模式是处理这类复杂数组过滤逻辑的标准且正确的方法,能够确保代码的健壮性和准确性。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

745

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

634

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

757

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

617

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1259

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

547

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

577

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

705

2023.08.11

c++主流开发框架汇总
c++主流开发框架汇总

本专题整合了c++开发框架推荐,阅读专题下面的文章了解更多详细内容。

25

2026.01.09

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 0.6万人学习

Django 教程
Django 教程

共28课时 | 3万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号