前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >0772-1.7.2-如何让CDSW的PySpark自动适配Python版本

0772-1.7.2-如何让CDSW的PySpark自动适配Python版本

作者头像
Fayson
发布2020-05-25 16:07:45
1.3K0
发布2020-05-25 16:07:45
举报
文章被收录于专栏:Hadoop实操Hadoop实操

文档编写目的

CDH集群中Spark2的Python环境默认为Python2,CDSW在启动Session时可以选择Engine Kernel版本Python2或者Python3。当选择Python3启动Session时,开发PySpark作业在运行时会报“Python in worker has different version 2.7 than that in driver 3.6, PySpark cannot run with different minor versions.Please check environment variables PYSPARK_PYTHON and PYSPARK_DRIVER_PYTHON are correctly set”,为解决Python版本适配的问题,需要进行如下调整来使我们的应用自动的适配Python版本。

集群部署多个Python版本

基于CDH提供的Anaconda Parcels包来安装Python,通过在CDH集群同时安装两个Python版本的Parcel包来解决多个版本的问题。如果需要在Spark中默认的支持Python2或者Python3版本则激活相应版本的Parcel即可,在我的集群默认激活的为Python2版本的Parcel包,在接下来的操作主要介绍Python3的环境准备。

Spark2默认使用的Python2环境变量

1.Python2版本的Anaconda下载地址如下:

代码语言:javascript
复制
https://repo.anaconda.com/pkgs/misc/parcels/Anaconda-2019.07-el7.parcel
https://repo.anaconda.com/pkgs/misc/parcels/Anaconda-2019.07-el7.parcel.sha
https://repo.anaconda.com/pkgs/misc/parcels/manifest.json

2.Python3版本的Anaconda下载地址如下:

代码语言:javascript
复制
https://repo.anaconda.com/pkgs/misc/parcels/archive/Anaconda-5.1.0.1-el7.parcel
https://repo.anaconda.com/pkgs/misc/parcels/archive/Anaconda-5.1.0.1-el7.parcel.sha
https://repo.anaconda.com/pkgs/misc/parcels/archive/manifest.json

3.将下载好的parcel包部署到集群的私有HTTP服务上

4.使用管理员账号登录Cloudera Manager进入Parcel包管理界面配置Anaconda地址

5.完成Parcel地址配置后完成对应版本Parcel包的下载分配即可

上述操作不需要激活,在不激活的情况下PySpark默认使用的Python2环境,如果激活则使用的是Python3环境。

6.确认集群所有节点已存在Python2和Python3的环境

CDSW自动为Spark适配Python版本

为了能让我们的Pyspark程序代码自动适配到不同版本的Python,需要在我们的Spark代码初始化之前进行环境的初始化,在代码运行前增加如下代码实现适配不同版本的Python。

代码语言:javascript
复制
import os
py_environ=os.environ['CONDA_DEFAULT_ENV']
if py_environ=='python2.7':
  os.environ['PYSPARK_PYTHON'] = '/opt/cloudera/parcels/Anaconda/bin/python'
else:
  os.environ['PYSPARK_PYTHON'] = '/opt/cloudera/parcels/Anaconda-5.1.0.1/bin/python'

验证程序自动适配Python版本

1.选择Python2环境启动Session

2.运行PySpark作业测试正常运行

3.选择Python3环境启动Session

4.运行PySpark作业测试正常运行

总结

在集群中同时部署多个版本的Python,通过在Pyspark代码中使用Python命令动态的指定PYSPARK_PYTHON为我们需要的Python环境即可。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-05-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Hadoop实操 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
专用宿主机
专用宿主机(CVM Dedicated Host,CDH)提供用户独享的物理服务器资源,满足您资源独享、资源物理隔离、安全、合规需求。专用宿主机搭载了腾讯云虚拟化系统,购买之后,您可在其上灵活创建、管理多个自定义规格的云服务器实例,自主规划物理资源的使用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档