网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
企业路由器 ER
企业交换机 ESW
全球加速 GA
企业连接 EC
云原生应用网络 ANC
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
威胁检测服务 MTD
态势感知 SA
认证测试中心 CTC
边缘安全 EdgeSec
应用中间件
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
API网关 APIG
分布式缓存服务 DCS
多活高可用服务 MAS
事件网格 EG
管理与监管
统一身份认证服务 IAM
消息通知服务 SMN
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云日志服务 LTS
云审计服务 CTS
标签管理服务 TMS
配置审计 Config
应用身份管理服务 OneAccess
资源访问管理 RAM
组织 Organizations
资源编排服务 RFS
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
解决方案
高性能计算 HPC
SAP
混合云灾备
开天工业工作台 MIW
Haydn解决方案工厂
数字化诊断治理专家服务
云生态
云商店
合作伙伴中心
华为云开发者学堂
华为云慧通差旅
开发与运维
软件开发生产线 CodeArts
需求管理 CodeArts Req
流水线 CodeArts Pipeline
代码检查 CodeArts Check
编译构建 CodeArts Build
部署 CodeArts Deploy
测试计划 CodeArts TestPlan
制品仓库 CodeArts Artifact
移动应用测试 MobileAPPTest
CodeArts IDE Online
开源镜像站 Mirrors
性能测试 CodeArts PerfTest
应用管理与运维平台 ServiceStage
云应用引擎 CAE
开源治理服务 CodeArts Governance
华为云Astro轻应用
CodeArts IDE
Astro工作流 AstroFlow
代码托管 CodeArts Repo
漏洞管理服务 CodeArts Inspector
联接 CodeArtsLink
软件建模 CodeArts Modeling
Astro企业应用 AstroPro
CodeArts盘古助手
华为云Astro大屏应用
计算
弹性云服务器 ECS
Flexus云服务
裸金属服务器 BMS
云手机服务器 CPH
专属主机 DeH
弹性伸缩 AS
镜像服务 IMS
函数工作流 FunctionGraph
云耀云服务器(旧版)
VR云渲游平台 CVR
Huawei Cloud EulerOS
云化数据中心 CloudDC
网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
企业路由器 ER
企业交换机 ESW
全球加速 GA
企业连接 EC
云原生应用网络 ANC
CDN与智能边缘
内容分发网络 CDN
智能边缘云 IEC
智能边缘平台 IEF
CloudPond云服务
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
威胁检测服务 MTD
态势感知 SA
认证测试中心 CTC
边缘安全 EdgeSec
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
可信智能计算服务 TICS
推荐系统 RES
云搜索服务 CSS
数据可视化 DLV
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
数据治理中心 DataArts Studio
湖仓构建 LakeFormation
智能数据洞察 DataArts Insight
应用中间件
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
API网关 APIG
分布式缓存服务 DCS
多活高可用服务 MAS
事件网格 EG
开天aPaaS
应用平台 AppStage
开天企业工作台 MSSE
开天集成工作台 MSSI
API中心 API Hub
云消息服务 KooMessage
交换数据空间 EDS
云地图服务 KooMap
云手机服务 KooPhone
组织成员账号 OrgID
云空间服务 KooDrive
管理与监管
统一身份认证服务 IAM
消息通知服务 SMN
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云日志服务 LTS
云审计服务 CTS
标签管理服务 TMS
配置审计 Config
应用身份管理服务 OneAccess
资源访问管理 RAM
组织 Organizations
资源编排服务 RFS
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
区块链
区块链服务 BCS
数字资产链 DAC
华为云区块链引擎服务 HBS
解决方案
高性能计算 HPC
SAP
混合云灾备
开天工业工作台 MIW
Haydn解决方案工厂
数字化诊断治理专家服务
价格
成本优化最佳实践
专属云商业逻辑
云生态
云商店
合作伙伴中心
华为云开发者学堂
华为云慧通差旅
其他
管理控制台
消息中心
产品价格详情
系统权限
客户关联华为云合作伙伴须知
公共问题
宽限期保留期
奖励推广计划
活动
云服务信任体系能力说明
开发与运维
软件开发生产线 CodeArts
需求管理 CodeArts Req
流水线 CodeArts Pipeline
代码检查 CodeArts Check
编译构建 CodeArts Build
部署 CodeArts Deploy
测试计划 CodeArts TestPlan
制品仓库 CodeArts Artifact
移动应用测试 MobileAPPTest
CodeArts IDE Online
开源镜像站 Mirrors
性能测试 CodeArts PerfTest
应用管理与运维平台 ServiceStage
云应用引擎 CAE
开源治理服务 CodeArts Governance
华为云Astro轻应用
CodeArts IDE
Astro工作流 AstroFlow
代码托管 CodeArts Repo
漏洞管理服务 CodeArts Inspector
联接 CodeArtsLink
软件建模 CodeArts Modeling
Astro企业应用 AstroPro
CodeArts盘古助手
华为云Astro大屏应用
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
高性能弹性文件服务 SFS Turbo
弹性文件服务 SFS
存储容灾服务 SDRS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
云存储网关 CSG
专属分布式存储服务 DSS
数据工坊 DWR
地图数据 MapDS
键值存储服务 KVS
容器
云容器引擎 CCE
云容器实例 CCI
容器镜像服务 SWR
云原生服务中心 OSC
应用服务网格 ASM
华为云UCS
数据库
云数据库 RDS
数据复制服务 DRS
文档数据库服务 DDS
分布式数据库中间件 DDM
云数据库 GaussDB
云数据库 GeminiDB
数据管理服务 DAS
数据库和应用迁移 UGO
云数据库 TaurusDB
人工智能
AI开发平台ModelArts
华为HiLens
图引擎服务 GES
图像识别 Image
文字识别 OCR
自然语言处理 NLP
内容审核 Moderation
图像搜索 ImageSearch
医疗智能体 EIHealth
企业级AI应用开发专业套件 ModelArts Pro
人脸识别服务 FRS
对话机器人服务 CBS
语音交互服务 SIS
人证核身服务 IVS
视频智能分析服务 VIAS
城市智能体
自动驾驶云服务 Octopus
盘古大模型 PanguLargeModels
IoT物联网
设备接入 IoTDA
全球SIM联接 GSL
IoT数据分析 IoTA
路网数字化服务 DRIS
IoT边缘 IoTEdge
设备发放 IoTDP
企业应用
域名注册服务 Domains
云解析服务 DNS
企业门户 EWP
ICP备案
商标注册
华为云WeLink
华为云会议 Meeting
隐私保护通话 PrivateNumber
语音通话 VoiceCall
消息&短信 MSGSMS
云管理网络
SD-WAN 云服务
边缘数据中心管理 EDCM
云桌面 Workspace
应用与数据集成平台 ROMA Connect
ROMA资产中心 ROMA Exchange
API全生命周期管理 ROMA API
政企自服务管理 ESM
视频
实时音视频 SparkRTC
视频直播 Live
视频点播 VOD
媒体处理 MPC
视频接入服务 VIS
数字内容生产线 MetaStudio
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
迁移中心 MGC
专属云
专属计算集群 DCC
开发者工具
SDK开发指南
API签名指南
DevStar
华为云命令行工具服务 KooCLI
Huawei Cloud Toolkit
CodeArts API
云化转型
云架构中心
云采用框架
用户服务
账号中心
费用中心
成本中心
资源中心
企业管理
工单管理
客户运营能力
国际站常见问题
支持计划
专业服务
合作伙伴支持计划
我的凭证
华为云公共事业服务云平台
工业软件
工业数字模型驱动引擎
硬件开发工具链平台云服务
工业数据转换引擎云服务
文档首页/ 数据湖探索 DLI/ 服务公告/ 版本支持公告/ Spark 2.4.x与Spark 3.3.x版本差异对比/ Spark 2.4.x与Spark 3.3.x版本在SQL队列的差异对比

Spark 2.4.x与Spark 3.3.x版本在SQL队列的差异对比

更新时间:2025-01-09 GMT+08:00
分享

DLI整理了Spark 2.4.x与Spark 3.3.x版本在SQL队列的差异,便于您了解Spark版本升级后SQL队列上运行的作业在适配新版本引擎时的影响。

histogram_numeric函数的返回值的类型不同

  • 说明:

    Spark SQL中的histogram_numeric函数返回一个结构体数组(x,y),不同版本的引擎x的类型不同。

    • Spark2.4.x:Spark 3.2或更早版本中,x为double类型。
    • Spark3.3.x:x类型等于函数输入值的类型。
  • 升级引擎版本后是否对作业有影响:

    有影响,涉及相关用法需要适配。

  • 示例代码

    准备数据:

    create table test_histogram_numeric(val int);
    INSERT INTO test_histogram_numeric VALUES(1),(5),(8),(6),(7),(9),(8),(9);

    执行sql:

    select histogram_numeric(val,3) from test_histogram_numeric;
    • Spark 2.4.5
      [{"x":1.0,"y":1.0},{"x":5.5,"y":2.0},{"x":8.200000000000001,"y":5.0}]
    • Spark 3.3.1
      [{"x":1,"y":1.0},{"x":5,"y":2.0},{"x":8,"y":5.0}]

Spark3.3.x不再支持使用“0$”指定第一个参数

  • 说明:

    format_string(strfmt, obj, ...) 和 printf(strfmt, obj, ...) 中的 strfmt 将不再支持使用“0$”指定第一个参数,第一个参数应始终由“1$”引用当使用参数索引来指示参数在参数列表中的位置。

    • Spark2.4.x:%0和%1均可表示第一个参数。
    • Spark3.3.x:不再支持%0。
  • 升级引擎版本后是否对作业有影响:

    有影响,请作业中如涉及使用%0需修改以适配Spark3.3.x

  • 示例代码1

    执行sql:

    SELECT format_string('Hello, %0$s! I\'m %1$s!', 'Alice', 'Lilei');
    • Spark 2.4.5
      Hello, Alice! I'm Alice!
    • Spark 3.3.1
      DLI.0005: The value of parameter(s) 'strfmt' in `format_string` is invalid: expects %1$, %2$ and so on, but got %0$.
  • 示例代码2

    执行sql:

    SELECT format_string('Hello, %1$s! I\'m %2$s!', 'Alice', 'Lilei');
    • Spark 2.4.5
      Hello, Alice! I'm Lilei!
    • Spark 3.3.1
      Hello, Alice! I'm Lilei!

Spark3.3.x版本中空字符串无引号。

  • 说明:

    默认情况下,空值在CSV数据源中,2.4.5版本空字符串为"",升级到spark3.3.1后空字符串无引号。

    • Spark2.4.x:空值在CSV数据源中为""。
    • Spark3.3.x:空值在CSV数据源中无引号。

      如需在Spark3.3.x版本中恢复Spark2.4.x的格式,可以通过设置spark.sql.legacy.nullValueWrittenAsQuotedEmptyStringCsv为 true来实现。

  • 升级引擎版本后是否对作业有影响:

    有影响,导出orc文件中null值存储形式不同。

  • 示例代码

    准备数据:

    create table test_null(id int,name string) stored as parquet;
    insert into test_null values(1,null);

    导出csv查看文件内容

    • Spark 2.4.5
      1,""
    • Spark 3.3.1
      1,

describe function返回结果不同

  • 说明:

    如果function不存在,describe function会执行失败。

    • Spark2.4.x:DESCRIBE函数仍然可以运行并打印“Function:func_name not found”
    • Spark3.3.x:函数不存在的提示信息变更为失败。
  • 升级引擎版本后是否对作业有影响:

    有影响,describe function 相关API的返回信息不同。

  • 示例代码

    执行sql:

    describe function dli_no(dli_no不存在)
    • Spark 2.4.5

      执行成功,function_desc内容:

      Function:func_name not found
    • Spark 3.3.1
      执行失败,DLI.0005:
      Undefined function: dli_no……

返回信息明确告知不支持指定表外部属性

  • 说明:

    表外部属性`external`变为保留。如果指定外部属性,某些命令将执行失败。

    • Spark2.4.x:通过 `CREATE TABLE ... TBLPROPERTIES`和`ALTER TABLE ... SET TBLPROPERTIES`指定external属性,命令执行成功,但实际上external属性被静默忽略,表依然是managed table。
    • Spark3.3.x:

      通过 `CREATE TABLE ... TBLPROPERTIES`和`ALTER TABLE ... SET TBLPROPERTIES`指定external属性,命令将会失败。

      如需在Spark3.3.x版本中恢复Spark2.4.x的使用方式,可以通过设置spark.sql.legacy.notReserveProperties为 true来实现。

  • 升级引擎版本后是否对作业有影响:

    有影响,涉及相关用法需要适配。

  • 示例代码

    执行sql:

    CREATE TABLE test_external(id INT,name STRING) TBLPROPERTIES('external'=true);
    • Spark 2.4.5

      执行成功。

    • Spark 3.3.1
      DLI.0005: The feature is not supported: external is a reserved table property, please use CREATE EXTERNAL TABLE.

新增支持解析“+Infinity”、“+INF”和“-INF”类型字符串的值

  • 说明:
    • Spark2.4.x:当从定义为FloatType 或 DoubleType的JSON属性读取值时,Spark2.4.x仅支持解析“Infinity”和“-Infinity”。
    • Spark3.3.x:当从定义为FloatType 或 DoubleType的JSON属性读取值时,Spark3.3.x除了支持解析“Infinity”和“-Infinity”之外,还支持解析字符串“+Infinity”、“+INF”和“-INF”。
  • 升级引擎版本后是否对作业有影响:

    功能增强,无影响

默认配置spark.sql.adaptive.enabled=true

  • 说明:
    • Spark2.4.x:在Spark 2.4.x版本中,默认情况下spark.sql.adaptive.enabled配置项的值是false,即自适应查询执行(Adaptive Query Execution,简称AQE)特性是关闭的。
    • Spark3.3.x:从Spark3.3.x-320版本起开始默认开启AQE特性,即spark.sql.adaptive.enabled配置项的值是true。
  • 升级引擎版本后是否对作业有影响:

    DLI功能增强,spark.sql.adaptive.enabled的默认参数值发生变化。

SHOW TABLES输出的schema的变化

  • 说明:

    SHOW TABLES的输出schema从database: string变成了namespace: string。

    • Spark2.4.x:SHOW TABLES的输出schema是database: string。
    • Spark3.3.x:

      SHOW TABLES的输出schema从database: string变成了namespace: string。

      其中对于内置catalog,namespace字段被命名为database;对于v2 catalog没有isTemporary字段。

      如果你希望在Spark 3.3.x版本中恢复到Spark 2.4.x版本的样式,可以通过将spark.sql.legacy.keepCommandOutputSchema设置为true来实现。

  • 升级引擎版本后是否对作业有影响:

    有影响,请排查作业中与SHOW TABLES有关的使用方法,并按上述说明适配新版本的使用要求。

  • 示例代码

    执行sql:

    show tables;
    • Spark 2.4.5
      database    tableName    isTemporary
      db1            table1            false
    • Spark 3.3.1
      namespace    tableName    isTemporary
      db1                table1            false

SHOW TABLE EXTENDED输出的schema变化

  • 说明:

    SHOW TABLE EXTENDED的输出schema从database: string变成了namespace: string。

    • Spark2.4.x:SHOW TABLE EXTENDED的输出schema是database: string。
    • Spark3.3.x:
    • SHOW TABLE EXTENDED的输出schema从database: string变成了namespace: string。

      其中对于内置catalog,namespace字段被命名为database;对于v2 catalog没有变化。

      如果你希望在Spark 3.3.x版本中恢复到Spark 2.4.x版本的样式,可以通过将spark.sql.legacy.keepCommandOutputSchema设置为true来实现。

  • 升级引擎版本后是否对作业有影响:

    有影响,请排查作业中与SHOW TABLES有关的使用方法,并按上述说明适配新版本的使用要求。

  • 示例代码

    执行sql:

    show table extended like 'table%';
    • Spark 2.4.5
      database    tableName    isTemporary    information
      db1            table1            false                Database:db1...
    • Spark 3.3.1
      namespace    tableName    isTemporary    information
      db1            table1            false                Database:db1...

表刷新对依赖项缓存的影响

  • 说明:

    升级Spark3.3.x版本后表刷新会清除表的缓存数据,但保持依赖项缓存。

    • Spark2.4.x:在Spark 2.4.x版本中,当执行表刷新操作(如REFRESH TABLE)时,不会保留依赖项(例如视图)的缓存数据。
      ALTER TABLE .. ADD PARTITION
      ALTER TABLE .. RENAME PARTITION
      ALTER TABLE .. DROP PARTITION
      ALTER TABLE .. RECOVER PARTITIONS
      MSCK REPAIR TABLE
      LOAD DATA
      REFRESH TABLE
      TRUNCATE TABLE
      spark.catalog.refreshTable
    • Spark3.3.x:升级Spark3.3.x版本后表刷新会清除表的缓存数据,但保持依赖项缓存。
  • 升级引擎版本后是否对作业有影响:

    升级新版本引擎后会增加原有依赖项的缓存数据。

表刷新对依赖该表的其他缓存操作的影响

  • 说明:
    • Spark2.4.x:Spark2.4.x中,刷新表时,只有当表本身被缓存时,才会触发引用该表的所有其他缓存的uncache操作。
    • Spark3.3.x:升级新版本引擎后不管表本身是否有缓存,只要刷新表,那么依赖该表的其他缓存都会执行uncache操作。
  • 升级引擎版本后是否对作业有影响:

    DLI功能增强,保证表刷新操作能对缓存生效,提高程序健壮性。

ADD PARTITION新增支持使用类型化文字

  • 说明:
    • Spark2.4.x

      在Spark 2.4.x版本中,使用ADD PARTITION时,如果使用类型化文字(例如date'2020-01-01'),分区值会被解析为字符串值date'2020-01-01',会生成一个非法的日期值,因此会添加一个值为null的分区。

      正确的做法是使用字符串值,例如ADD PARTITION(dt = '2020-01-01')

    • Spark3.3.x:在Spark 3.3.x版本中,对分区操作支持使用类型化文字,支持使用ADD PARTITION(dt = date'2020-01-01'),并且可以正确地将分区值解析为日期类型,而不是字符串。
  • 升级引擎版本后是否对作业有影响:

    有影响,ADD PARTITION中对于类型化文字的处理方式的变化。

  • 示例代码

    准备数据:

    create table test_part_type (id int,name string,pt date) PARTITIONED by (pt);
    insert into test_part_type partition (pt = '2021-01-01') select 1,'name1';
    insert into test_part_type partition (pt = date'2021-01-01') select 1,'name1';

    执行sql:

    select id,name,pt from test_part_type;
    (配置参数spark.sql.forcePartitionPredicatesOnPartitionedTable.enabled为false)
    • Spark 2.4.5
      1 name1 2021-01-01
      1 name1
    • Spark 3.3.1
      1 name1 2021-01-01
      1 name1 2021-01-01

DayTimeIntervalType的映射类型变化为Duration

  • 说明:

    在ArrowWriter和ArrowColumnVector开发者API中,从Spark 3.3.x版本开始,Spark SQL中的DayTimeIntervalType类型被映射到Apache Arrow的Duration类型。

    • Spark2.4.x:DayTimeIntervalType被映射到Apache Arrow的Interval类型。
    • Spark3.3.x:DayTimeIntervalType被映射到Apache Arrow的Duration类型。
  • 升级引擎版本后是否对作业有影响:

    有影响,DayTimeIntervalType的映射类型发生变化。

日期差值返回结果的类型变化

  • 说明:

    date减法表达式(如 date1 - date2)返回DayTimeIntervalType的值

    • Spark2.4.x:返回CalendarIntervalType。
    • Spark3.3.x:返回DayTimeIntervalType。

      恢复之前的行为,将 spark.sql.legacy.interval.enabled 设置为 true

  • 升级引擎版本后是否对作业有影响:

    有影响,日期差值返回结果默认类型变化。

单位到单位间隔的映射类型的变化

  • 说明:
    • Spark2.4.x:Spark2.4.x版本中单位到单位的间隔(如 INTERVAL '1-1' YEAR TO MONTH)和单位列表间隔(如 INTERVAL '3' DAYS '1' HOUR)将转换为CalendarIntervalType类型。
    • Spark3.3.x:在Spark3.3.x版本中,单位到单位的间隔(如 INTERVAL '1-1' YEAR TO MONTH)和单位列表间隔(如 INTERVAL '3' DAYS '1' HOUR)将转换为 ANSI 间隔类型:YearMonthIntervalType或DayTimeIntervalType类型。

      在Spark3.3.x版本中如果希望恢复到Spark2.4.x之前的映射类型,可以通过设置配置项

      spark.sql.legacy.interval.enabled为true来实现。

  • 升级引擎版本后是否对作业有影响:

    有影响,映射后的数据类型发生变化。

timestamps减法表达式返回值类型变化

  • 说明:
    • Spark2.4.x:timestamps减法表达式,如select timestamp'2021-03-31 23:48:00'- timestamp'2021-01-01 00:00:00'返回CalendarIntervalType类型的值。
    • Spark3.3.x:timestamps减法表达式,如select timestamp'2021-03-31 23:48:00'- timestamp'2021-01-01 00:00:00'返回DayTimeIntervalType类型的值。

      在Spark3.3.x版本中如果希望恢复到Spark2.4.x之前的映射类型,可以通过设置配置项spark.sql.legacy.interval.enabled为true来实现。

  • 升级引擎版本后是否对作业有影响:

    有影响,映射后的数据类型发生变化。

不再支持混合使用年月字段和日时间字段

  • 说明:
    • Spark2.4.x:单位列表间隔文字可以混合使用年月字段(YEAR 和 MONTH)和日时间字段(WEEK、DAY、...、MICROSECOND)。
    • Spark3.3.x:单位列表间隔文字不能混合使用年月字段(YEAR 和 MONTH)和日时间字段(WEEK、DAY、...、MICROSECOND)。提示无效输入。

      在Spark3.3.x版本中如果希望恢复到Spark2.4.x之前的使用方式,可以通过设置配置项spark.sql.legacy.interval.enabled为true来实现。

  • 升级引擎版本后是否对作业有影响:

    有影响。

CREATE TABLE .. LIKE .. 命令不能使用保留属性

  • 说明:

    CREATE TABLE .. LIKE .. 命令不能使用保留属性

    • Spark2.4.x:Spark2.4.x版本中在执行CREATE TABLE .. LIKE .. 命令时可以使用保留属性。

      例如:TBLPROPERTIES('location'='/tmp') 不会改变表的位置但会创建一个无效属性。

    • Spark3.3.x:Spark3.3.x版本中CREATE TABLE .. LIKE .. 命令不能使用保留属性,

      例如使用TBLPROPERTIES('location'='/tmp')或TBLPROPERTIES('owner'='yao')会直接失败。

  • 升级引擎版本后是否对作业有影响:

    有影响。

  • 示例代码1

    准备数据:

    CREATE TABLE test0(id int, name string);
    CREATE TABLE test_like_properties LIKE test0 LOCATION 'obs://bucket1/test/test_like_properties';

    执行sql:

    DESCRIBE FORMATTED test_like_properties;
    • Spark 2.4.5

      正常显示location

    • Spark 3.3.1

      正常显示location

  • 示例代码2:

    准备数据:

    CREATE TABLE test_like_properties0(id int) using parquet LOCATION 'obs://bucket1/dbgms/test_like_properties0';
    CREATE TABLE test_like_properties1 like test_like_properties0 tblproperties('location'='obs://bucket1/dbgms/test_like_properties1');

    执行sql:

    DESCRIBE FORMATTED test_like_properties1;
    • Spark 2.4.5
      DLI.0005:
      mismatched input 'tblproperties' expecting {<EOF>, 'LOCATION'}
    • Spark 3.3.1
      The feature is not supported: location is a reserved table property, please use the LOCATION clause to specify it.

包含自动生成的别名时创建视图失败

  • 说明:
    • Spark2.4.x:Spark2.4.x版本中如果语句中包含自动生成的别名,则正常执行且无提示信息。
    • Spark3.3.x:Spark3.3.x版本中如果语句中包含自动生成的别名,则创建/更改视图将失败。

      在Spark3.3.x版本中如果希望恢复到Spark2.4.x之前的使用方式,可以通过设置配置项spark.sql.legacy.allowAutoGeneratedAliasForView为true来实现。

  • 升级引擎版本后是否对作业有影响:

    有影响。

  • 示例代码:

    准备数据:

    create table test_view_alis(id1 int,id2 int);
    INSERT INTO test_view_alis VALUES(1,2);

    执行sql:

    create view view_alis as select id1 + id2 from test_view_alis;
    • Spark 2.4.5

      执行成功

    • Spark 3.3.1
      报错
      Not allowed to create a permanent view `view_alis` without explicitly assigning an alias for expression (id1 + id2)

      如果在Spark 3.3.1版本添加如下参数后,执行SQL成功。

      spark.sql.legacy.allowAutoGeneratedAliasForView = true

日期加减时间字段间隔后的返回值类型的变化

  • 说明:

    date +/-只有日期时间字段(如date'2011-11-11')的间隔+间隔12小时返回类型变化。

    • Spark2.4.x:在Spark 2.4.x中,当对定义为FloatType或DoubleType的JSON属性进行日期加减操作时,例如date'2011-11-11'加上或减去一个时间间隔(如12小时),返回的类型是日期(DateType)。
    • Spark3.3.x:Spark 3.3.x版本中,对于同样的操作,返回的类型变为时间戳(TimestampType),用于保持与Hive的兼容性。
  • 升级引擎版本后是否对作业有影响:

    有影响。

  • 示例代码:

    执行sql:

    select date '2011-11-11' - interval 12 hour
    • Spark 2.4.5
      2011-11-10
    • Spark 3.3.1
      1320897600000

Spark SQL支持Char/Varchar类型

  • 说明:
    • Spark2.4.x:在Spark2.4.x版本中,Spark SQL表字段不支持Char/Varchar类型,当指定为Char/Varchar类型时会强制转换为String类型。
    • Spark3.3.x:Spark SQL表字段支持CHAR/CHARACTER和VARCHAR类型。
  • 升级引擎版本后是否对作业有影响:

    无影响。

  • 示例代码:

    准备数据:

    create table test_char(id int,name varchar(24),name2 char(24));

    执行sql:

    show create table test_char;
    • Spark 2.4.5
      create table `test_char`(`id` INT,`name` STRING,`name2` STRING)
      ROW FORMAT...
    • Spark 3.3.1
      create table test_char(id INT,name VARCHAR(24),name2 VARCHAR(24))
      ROW FORMAT...

空值分区的查询语句不同

  • 说明:
    • Spark2.4.x

      Spark 3.0.1或更早版本中,如果分区列是字符串类型,则将其解析为其文本表示形式的字符串文本,例如字符串“null”。

      通过part_col='null'查询空值分区的数据。

    • Spark3.3.x:

      `PARTITION(col=null)`始终在分区规范中解析为null,即使分区列是字符串类型。

      通过part_col is null查询空值分区的数据。

  • 升级引擎版本后是否对作业有影响:

    有影响,涉及对空值分区的查询需要适配

  • 示例代码:

    准备数据:

    CREATE TABLE test_part_null (col1 INT, p1 STRING) USING PARQUET PARTITIONED BY (p1);
    INSERT INTO TABLE test_part_null PARTITION (p1 = null) SELECT 0;

    执行sql:

    select * from test_part_null;
    • Spark 2.4.5
      0 null

      Spark 2.4.5版本执行select * from test_part_null where p1='null'可查到分区数据。

    • Spark 3.3.1
      0

      Spark 3.3.1版本执行select * from test_part_null where p1 is null才可查询到数据。

对分区表数据的处理方式不同

  • 说明:

    datasourcev1分区外表,路径下已经存在不带uuid的分区路径数据。

    执行insert overwrite partition操作,Spark3.3.x会清除之前不带uuid的分区数据,Spark2.4.x不会清理。
    • Spark2.4.x

      保留不带uuid分区路径下数据。

    • Spark3.3.x:

      会删除不带uuid分区路径下数据。

  • 升级引擎版本后是否对作业有影响:

    有影响,会清理脏数据。

  • 示例代码:

    准备数据:

    obs://bucket1/test/overwrite_datasource下创建pt=pt1目录,并导入一个parquet数据文件。

    create table overwrite_datasource(id int,name string,pt string) using parquet PARTITIONED by(pt) LOCATION 'obs://bucket1/test/overwrite_datasource';
    SELECT * FROM overwrite_datasource1 where pt='pt1'两个版本均查询不到数据。

    执行sql:

    insert OVERWRITE table overwrite_datasource partition(pt='pt1') values(2,'aa2');
    • Spark 2.4.5

      保留了pt=pt1目录。

    • Spark 3.3.1

      删除了pt=pt1目录。

导出CSV文件时保留特殊字符的引号

  • 说明:
    • Spark2.4.x

      在Spark 2.4.x版本中,导出CSV文件时,如果字段值中包含特殊字符如换行符(\n)和回车符(\r),并且这些特殊字符被引号(例如双引号")包围,Spark会自动处理这些引号,在导出的CSV文件中舍弃这些引号。

      例如,字段值"a\rb"在导出时不会包含引号。

    • Spark3.3.x:

      在Spark 3.3.x版本中,优化了对于CSV文件的导出处理,如果字段值中包含特殊字符,并且这些特殊字符被引号包围,Spark会保留这些引号。

      例如:字段值"a\rb"在导出时,引号仍被保留在最终的CSV文件中。

  • 升级引擎版本后是否对作业有影响:

    对查询结果无影响,但导出文件样式有影响。

  • 示例代码:

    准备数据:

    create table test_null2(str1 string,str2 string,str3 string,str4 string);
    insert into test_null2 select "a\rb", null, "1\n2", "ab";

    执行sql:

    SELECT * FROM test_null2;
    • Spark 2.4.5
      a b  1 2 ab
    • Spark 3.3.1
      a b  1 2 ab

    导出查询结果到obs,查看csv文件内容:

    • Spark 2.4.5
      a
      b,"","1
      2",ab
    • Spark 3.3.1
      "a
      b",,"1
      2",ab

新增支持自适应Skip partial agg功能的配置

  • 说明:

    Spark3.3.x版本中新增支持自适应Skip partial agg功能,即当Partial Agg效果不佳时,可以直接跳过,避免Partial Agg带来的额外性能消耗。相关参数:

    • spark.sql.aggregate.adaptivePartialAggregationEnabled:用于控制是否启用自适应Skip partial agg功能。当设置为true时,Spark会根据运行时的统计数据动态决定是否跳过部分聚合。
    • spark.sql.aggregate.adaptivePartialAggregationInterval:该参数用于配置分析间隔,即在处理了多少行数据之后,Spark会进行一次分析,用来决定是否需要跳过部分聚合。
    • spark.sql.aggregate.adaptivePartialAggregationRatio:该参数是判断是否跳过的阈值,用于判断“已处理的group分组/已处理的行数”的比例。如果这个比例大于配置的阈值,则认为预聚合效果不好,此时Spark可以选择跳过部分聚合,避免进一步的性能损失。

    在使用时系统先按照spark.sql.aggregate.adaptivePartialAggregationInterval配置的间隔进行分析,当处理的行数到达间隔之后,再计算”已处理的group分组/已处理的行数”,如果比例大于配置的阈值,则认为预聚合效果不好,此时可以直接选择跳过。

  • 升级引擎版本后是否对作业有影响:

    DLI功能增强。

新增支持Parallel Multi-Insert

  • 说明:

    Spark3.3.x版本中新增支持Parallel Multi-Insert,如果SQL存在multi-insert的场景,在同一个SQL里插入到多个表中,这类SQL在Spark开源本身是串行处理的,性能受到制约。针对这类SQL,Spark3.3.x版本中DLI新增支持multi-insert并行化的优化处理,可以让所有的insert都并发执行,提升处理性能。

    在使用时需配置开启以下功能开关(默认关闭):

    spark.sql.lazyExecutionForDDL.enabled=true

    spark.sql.parallelMultiInsert.enabled=true

  • 升级引擎版本后是否对作业有影响:

    DLI功能增强,增强multi-insert并行化特性,提升作业运行的可靠性。

新增支持Enhance Reuse Exchange

  • 说明:

    Spark3.3.x版本中新增支持Enhance Reuse Exchange,SQL的对应plan存在sort merge join可重用的条件,通过打开相应开关spark.sql.execution.enhanceReuseExchange.enabled,可以实现SMJ plan node重用。

    在使用时需配置开启以下功能开关(默认关闭):

    spark.sql.execution.enhanceReuseExchange.enabled=true

  • 升级引擎版本后是否对作业有影响:

    DLI功能增强。

TIMESTAMP类型字段读取差异

  • 说明:
    TIMESTAMP类型字段读取差异,对于Asia/Shanghai时区,时间在1900-01-01 08:05:43之前的值,Spark 2.4.5版本写入后Spark 3.3.1版本读取值与Spark 2.4.5版本读取值不同。
    • Spark2.4.x

      以Asia/Shanghai时区的 1900-01-01 00:00:00 为例,通过Spark 2.4.5版本队列写入,Spark 2.4.5版本读取后得到的值为 -2209017600000。

    • Spark3.3.x:

      以Asia/Shanghai时区的 1900-01-01 00:00:00 为例,通过Spark 2.4.5版本队列写入,Spark 3.3.1版本配置spark.sql.parquet.int96RebaseModeInRead=LEGACY,读取后得到的值为 -2209017943000。

  • 升级引擎版本后是否对作业有影响:

    有影响,需要评估TIMESTAMP类型字段的使用方式。

  • 示例代码:

    在SQL界面配置:

    spark.sql.session.timeZone=Asia/Shanghai
    • Spark 2.4.5
      create table parquet_timestamp_test (id int, col0 string, col1 timestamp) using parquet;
      insert into parquet_timestamp_test values (1, "245", "1900-01-01 00:00:00");

      执行SQL读取数据:

      select * from parquet_timestamp_test;

      查询结果:

      id   col0    col1
      1    245     -2209017600000
    • Spark 3.3.1
      spark.sql.parquet.int96RebaseModeInRead=LEGACY

      执行SQL读取数据:

      select * from parquet_timestamp_test;

      查询结果:

      id   col0    col1
      1    245     -2209017943000

from_unixtime函数差异

  • 说明:
    • Spark2.4.x

      以Asia/Shanghai时区的 -2209017600 为例,返回值为1900-01-01 00:00:00。

    • Spark3.3.x:

      以Asia/Shanghai时区的 -2209017943 为例,返回值为 1900-01-01 00:00:00。

  • 升级引擎版本后是否对作业有影响:

    有影响,需要检查使用该函数的场景。

  • 示例代码:

    在SQL界面配置:

    spark.sql.session.timeZone=Asia/Shanghai
    • Spark 2.4.5

      执行SQL读取数据:

      select from_unixtime(-2209017600);
      查询结果:
       1900-01-01 00:00:00
    • Spark 3.3.1

      执行SQL读取数据:

      select from_unixtime(-2209017600);

      查询结果

      1900-01-01 00:05:43

unix_timestamp函数差异

  • 说明:
    对于Asia/Shanghai时区,小于1900-01-01 08:05:43的值。
    • Spark2.4.x

      以Asia/Shanghai时区的 1900-01-01 00:00:00 为例,返回值为 -2209017600。

    • Spark3.3.x:

      以Asia/Shanghai时区的 1900-01-01 00:00:00 为例,返回值为 -2209017943。

  • 升级引擎版本后是否对作业有影响:

    有影响,需要检查使用该函数的场景。

  • 示例代码:

    在SQL界面配置:

    spark.sql.session.timeZone=Asia/Shanghai
    • Spark 2.4.5

      执行SQL读取数据:

      select unix_timestamp('1900-01-01 00:00:00');
      查询结果:
       -2209017600
    • Spark 3.3.1

      执行SQL读取数据:

      select unix_timestamp('1900-01-01 00:00:00');

      查询结果

      -2209017943
提示

您即将访问非华为云网站,请注意账号财产安全

文档反馈

文档反馈

意见反馈

0/500

标记内容

同时提交标记内容