腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Flask
+
Pyspark
:
重复
的
spark
会话
、
、
、
我正在使用
PySpark
和
Flask
,以便有一个web服务。 #!/usr/bin/env pythonfrom
pyspark
import SparkFilesfrom
pyspark
.ml import PipelineModel from
pyspark
.sql import SparkSession, SQLCon
浏览 49
提问于2019-02-11
得票数 1
回答已采纳
3
回答
在非星火环境中加载
pyspark
模型
、
、
、
我对在python中部署机器学习模型感兴趣,因此可以通过对服务器
的
请求进行预测。 我将创建一个Cloudera集群,并利用
Spark
开发这些模型,使用这个库
pyspark
。我已经看到不同
的
算法都有.save函数(就像本文中
的
所回答
的
那样),但是由于服务器将位于不同
的
机器上,而不是在Cloudera集群中,所以我不知道是否可以使用它们
的
.load和.predict函数。
浏览 11
提问于2016-11-21
得票数 14
回答已采纳
1
回答
Pyspark
和Cassandra安全bundle.zip
、
、
、
、
我刚接触这个
pyspark
cassandra技术,我在
pyspark
中找到了很多关于
Spark
.sql
的
资源,我认为这很酷,但我仍然停留在与我
的
数据库
的
连接级别,因为我需要一个来自datastax
的
所以,下面是我
的
问题: 我知道这是使用
pyspark
shell连接到我
的
远程数据库
的
方法:
pyspark
--packages com.datastax.
spark</em
浏览 16
提问于2020-08-27
得票数 2
2
回答
SparkSession与SparkContext在
PySpark
中
的
启动
、
、
、
我想知道Scala中以下代码
的
PySpark
等效值。我在使用数据库。我需要
的
输出如下:-val new_
spark
=
spark
.newSession() new_
spark
: org.apache.
spark
.sql.SparkSession = org.apache.
spark
.sql.
浏览 2
提问于2020-08-11
得票数 0
回答已采纳
2
回答
未定义获取错误名称“火花”
、
、
这是我使用
的
代码: data_filesHMP_Dataset/'+category) print(data_file)
浏览 14
提问于2020-05-07
得票数 1
回答已采纳
1
回答
创建
Pyspark
会话
大约需要25秒
、
、
我正在尝试使用MongoDB连接器来使用
PySpark
。但是,仅创建
PySpark
会话
就需要大约20到25秒,这会影响服务
的
性能。我还给出了用来创建
spark
会话
的
代码片段。from
pyspark
.sql import SparkSession .builder \ .con
浏览 18
提问于2020-04-14
得票数 2
1
回答
在
PySpark
中使用达美湖时,如何将卡夫卡设置为依赖关系?
、
、
、
、
根据
的
说法,这是将Delta设置为常规Python脚本
的
一部分
的
代码from delta import *
Spark
中
的
for Kafka集成展示了在使用
spark
-submit命令(通过--packages参数)时如何设置--packages,而不是用--,您还可以在
浏览 10
提问于2022-12-01
得票数 0
2
回答
如何从
pyspark
导入"
spark
“?
我正在尝试测试一个实用函数,它接受一个
spark
DataFrame,并在经过一些转换后输出一个新
的
spark
DataFrame。在尝试模拟测试数据时,我需要为输入构造一个
pyspark
dataframe。我看到
的
大多数使用这种用法
的
例子
spark
.createDataFrame(data, columns) 我对文档不太熟悉,找不到"
spark
“。您如何使用from
pyspark
* import
spark
浏览 8
提问于2020-08-12
得票数 0
回答已采纳
4
回答
NameError:未定义名称“
spark
”
、
、
、
、
我正在从官方文档网站复制
pyspark
.ml示例:df =
spark
.createDataFrame(data, ["features"])<ipython-input-28-aaffcd123
浏览 4
提问于2016-09-16
得票数 32
回答已采纳
1
回答
在windows和pycharm中设置
SPARK
-HOME路径变量
、
、
我刚开始接触
SPARK
,并尝试在windows中使用它。我使用hadoop
的
预构建版本成功下载并安装了
Spark
1.4.1。在以下目录中:我可以运行
spark
-shell和
pyspark
.cmd,一切都很正常。我正在处理
的
唯一问题是,当我在Pycharm中编码时,我想导入
pyspark
。SparkConf
浏览 5
提问于2015-08-26
得票数 1
2
回答
如何解决java.sql.SQLException:无法打开到给定
的
database.in吡火花2.2
的
测试连接
、
、
这是我
的
代码from tkinter import*#from
pyspark
.sqlimport SparkSessionfrom
pyspark
import SparkConf,SparkContextsqlContext=Hiv
浏览 4
提问于2017-08-17
得票数 0
1
回答
如果通过星火提交提交作业,我们是否可以使用星火
会话
对象而不显式地创建它?
、
、
、
、
我
的
问题非常基本,我
的
代码运行良好。但我不清楚这两点:from
pyspark
.sql import SparkSession,SQLContext
spark
= SparkSessionfrom
pyspark
.sql import SparkSession,SQLC
浏览 4
提问于2017-09-12
得票数 4
1
回答
pySpark
:将Kafka流放入parquet中,并从远程
会话
读取parquet
、
、
、
、
从不同
的
docker容器中,我尝试读取拼图文件。
spark
= SparkSession.builder\ .master('
spark
://0.0.0.0:7077') \last): File "/usr/src/app/apao-
flask
-gunicorn/graph_generator.py"
浏览 36
提问于2021-04-29
得票数 0
1
回答
更改EMR集群中Livy使用
的
Python版本
、
、
在hadoop用户、我
的
用户、根用户和EC2-用户中,我已经将
PYSPARK
_PYTHON环境变量更改为/usr/bin/python3。我将export
PYSPARK
_PYTHON=/usr/bin/python3添加到/etc/
spark
/conf/
spark
-env.sh文件中。我在下面列出
的
项目中添加了"
spark
.yarn.appMasterEnv.
浏览 6
提问于2021-05-03
得票数 2
1
回答
在自定义包中创建
pyspark
dataframe?
、
、
、
我对最佳实践以及如何在包中创建
spark
会话
感到有点困惑,其中包可以在databricks或local上使用。但是假设我有一个函数,它接受一些数据列表或字典,预期
的
输出是包含数据
的
pyspark
dataframe。我认为单个
会话
应该足够了,因此需要检查
会话
是否存在,如果不存在,则创建一个
会话
。这是我
的
代码,为什么它不在一个jupyter笔记本里面,我不知道这是不是最好
的
方式,anyways...sometimes,
浏览 2
提问于2020-10-31
得票数 0
2
回答
如何使用
Spark
上下文?
、
、
、
、
我将值赋值为sc =
pyspark
.SparkContext()。它在jupyter笔记本上运行了很长时间,没有响应,因为出现了星号,并且没有显示任何错误。我试过sc = SparkContext()import ossc =
pyspark
.SparkContext() # At this part it don't respond from
pyspark
.sql i
浏览 1
提问于2019-05-29
得票数 0
1
回答
有可能使用火花放电和熊猫同时安装
的
码头图像吗?
、
、
、
、
我
的
烧瓶应用程序使用熊猫和火星雨。FROM amancevice/pandasADD .pymysqlpasslibWerkzeug
pyspark
from
pyspark
.sqlsession warehouse_location ='hdfs:
浏览 20
提问于2022-04-15
得票数 2
回答已采纳
2
回答
在从任何目录启动
的
Jupyter Notebook中导入
pyspark
、
、
我
的
操作系统是Ubuntu16,我
的
目标是在Jupyter Notebook中运行import
pyspark
,而不必从我安装
Spark
的
目录中启动Jupyter Notebook (通过控制台)。我用findspark试过了,就像这样findspark.init("directory_where_I_installed_
spark
_to") import
pyspark
这只适用于一个
会话
,但当我
浏览 11
提问于2017-08-14
得票数 0
回答已采纳
1
回答
Pyspark
没有打开jupyter
、
、
、
我正在尝试在
pyspark
(在Ubuntu中)中运行graphframes,并遵循以下步骤: 我编辑了mu .profile文件,如下所示:
SPARK
_PATH=/home/
spark
/
spark
bin-hadoop2.7PATH="$HOME/bin:$HOME/.local/bin:$PATH" $
SPA
浏览 28
提问于2019-10-04
得票数 0
1
回答
如何在
pyspark
环境
会话
中设置blob conf
、
、
我有一个
pyspark
脚本,在其中我启动了一个
spark
会话
,但是我无法使用
spark
.read.format('json').load("my_blob_path")从blob商店读取。下面是我
的
会话
初始化。请帮助我在环境中设置我
的
blob凭证。conf = SparkConf().setAppName("session1")from
pys
浏览 0
提问于2020-02-26
得票数 2
回答已采纳
点击加载更多
相关
资讯
Jupyter在美团民宿的应用实践
编程字典-详细的PySpark环境设置
Python Spark安装及配置步骤
pyspark 安装
一文读懂PySpark数据框
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券