腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
composer
在
dataproc
上
运行
Notebook
、
、
我
在
dataproc
上有一个Jupyter笔记本,它
使用
dataproc
进行处理。我还将这个笔记本存储
在
gcs
上
的一个位置"gc:/bucket/...“。我想创建一个编写器工作流,以便在我现有的
dataproc
集群
上
运行
此笔记本。这在GCP中是可能的吗?
浏览 30
提问于2020-09-23
得票数 2
2
回答
无法从'google.cloud‘导入名称'
dataproc
_v1’(未知位置)
、
、
、
、
尝试通过Jupyter
Notebook
使用
Dataproc
从计算机进行访问时,我
使用
pip安装了所需的库。但是,
在
导入时出现错误 import google.cloud.
dataproc
_v1 错误信息如下: ModuleNotFoundError Traceback(most recent call last)----> 1
浏览 21
提问于2020-09-11
得票数 1
2
回答
如何
按计划自动
运行
Google Cloud的"AI笔记本“?
、
、
Google cloud平台中的Notebooks对于云中的Python开发来说已经很棒了,但最后一个缺失的部分只是按计划
运行
现有的notebooks。
浏览 16
提问于2021-07-29
得票数 1
1
回答
如何
从DataProcPySparkOperator发出气流日志
、
、
、
到目前为止,我已经将以下内容包含在
运行
在运算符集群中的pyspark脚本的顶部:logging.info('Test bare logger') l.info('Test {} logger'.format(ls))它不会产生任何输出,尽管操作符脚本会按预期
运行
我非常想得到偶尔引用的状态检查,
在
计算的中间
浏览 2
提问于2020-12-08
得票数 2
回答已采纳
2
回答
/datalab/
notebook
目录是
在
Dataproc
主服务器
上
创建的吗?
、
但是,我希望将在/datalab/
notebook
目录中创建的笔记本持久化,然后
在
创建新集群时将它们复制到同一目录中,这样在前一个集群
上
创建的所有笔记本都可用。我可以
在
关机前将笔记本复制到GCS存储桶中,但无法
在
创建新集群后将它们从GCS复制回/datalab/network,因为目录/datalab/
notebook
是
在
我的启动脚本
运行
时或初始化脚本datalab.sh这个目录是在哪里创建的
浏览 12
提问于2019-04-30
得票数 2
1
回答
Google
Dataproc
Jupyter
notebook
认为它在root中
、
、
、
当
运行
!pwd或os.getcwd()时,Google
Dataproc
上
的所有笔记本都返回根目录/。它们实际上位于文件系统中更深的位置,例如:/jupyter/users。这个问题似乎是Google
Dataproc
特有的。有什么办法找到位置吗? 我尝试更改启动jupyter服务器的命令,但之后笔记本就会认为路径就是它们所在的位置。/opt/conda/miniconda3/bin/jupyter
notebook
浏览 2
提问于2021-04-28
得票数 1
2
回答
您
如何
通过Google Cloud
Composer
安排GCP AI平台笔记本电脑?
、
、
、
、
我的任务是通过造纸厂操作员自动安排一些每天
运行
在AI平台笔记本
上
的笔记本的日程安排,但实际
上
通过Cloud
Composer
来做这件事给我带来了一些麻烦。 如有任何帮助,我们将不胜感激!
浏览 53
提问于2020-01-30
得票数 3
回答已采纳
1
回答
尝试从本地气流
运行
DataProcSparkOperator任务时的HttpError 400
、
、
我正在测试一个DAG,我曾经
在
Google
Composer
上
没有错误地
运行
在一个本地安装的Airflow
上
。DAG启动Google
Dataproc
集群,
运行
Spark作业(位于GS存储桶
上
的JAR文件),然后关闭集群。所有其他任务的执行都没有错误,唯一的区别是DAG不再在
Composer
上
运行
: default_dag_args = { 'start_date': y
浏览 8
提问于2019-03-05
得票数 1
回答已采纳
2
回答
您能从
Dataproc
触发Python脚本吗?
、
、
、
、
我
在
Hadoop有一个本地环境。它由存储
在
HDFS
上
的文件和一堆编写API调用并触发猪作业的python脚本组成。这些python作业是通过cron调度的。 我想了解
在
GCP中做类似事情的最佳方法。我知道我可以
使用
GCS作为HDFS的替代品。该
Dataproc
可用于拆分Hadoop集群并
运行
Pig作业。是否有可能将这些Python脚本存储到GCS中,有一个类似cron的时间表来拆分Hadoop集群,并指向GCS中的这些Python脚本来
运行
呢?
浏览 10
提问于2022-03-31
得票数 2
回答已采纳
1
回答
使用
DataProcPySparkOperator时无法配置GCP项目
、
、
、
我正在
使用
Cloud
Composer
环境
在
GCP项目中
运行
工作流。我的一个工作流
使用
DataprocClusterCreateOperator
在
不同的项目中创建了一个
Dataproc
集群,然后尝试
使用
来自airflow.contrib.operators.
dataproc
_operator要创建集群,我可以指定一个project_id参数来
在
另一个项目中创建它,但是DataProcPySparkOperator似乎
浏览 22
提问于2020-08-13
得票数 0
回答已采纳
1
回答
DAG
运行
成功,但在Airflow but服务器UI中,DAG不可用/
在
Google Cloud
Composer
中无法单击DAG
、
、
无论是
在
本地托管airflow时,还是
在
cloud
composer
上
,它都能完美
运行
。但是,无法
在
Composer
UI中单击DAG本身。我找到了一个类似的问题,并尝试了中链接的被接受的答案。from airflow.contrib.operators.
dataproc
_operator import DataProcSparkOperator from schemas.schemaVa
浏览 13
提问于2019-03-28
得票数 1
回答已采纳
1
回答
如何
在Google
Dataproc
集群中安装和
运行
pip
、
、
、
我
使用
以下命令
在
谷歌
DataProc
中创建了一个集群: gcloud beta
dataproc
clusters create my-cluster \ --project my-project \="gs://${BUCKET}/notebooks/zeppelin/${CLUSTER_NAME}"#
dataproc
:jupyter.
notebook
.gcs.dir="gs://${B
浏览 10
提问于2020-01-29
得票数 2
回答已采纳
1
回答
如何
通过
Composer
为设置CPUS配额?
、
、
在
免费试用帐户中尝试,工作流DAG的第一个任务
运行
以下操作符: task_id='create_
dataproc
_cluster', cluster_name='quickstart-cluster-{{ ds_nodash }}显示当前
使用
量为6,75%,位于4条中的3条,这意
浏览 0
提问于2019-05-25
得票数 3
回答已采纳
1
回答
关闭和开启Google Cloud虚拟机(计算引擎)后,动态端口转发失败
、
、
、
、
我
使用
动态端口转发连接到我的Spark集群主节点,这样我就可以
在
我的本地机器
上
打开jupyter
notebook
web界面。我遵循了Google Cloud
Dataproc
教程中的说明:gcloud compute ssh --zone=<cluster-zone> --ssh-flag
浏览 15
提问于2017-03-02
得票数 1
回答已采纳
1
回答
具有内部IP地址且无
DataProc
访问权限的SSH实例
、
、
想
使用
GCP提供的
dataproc
-container-v20210802-debian-10镜像来创建
Dataproc
HUB
notebook
实例。
在
组织中,不允许具有外部IP地址和到VM的SSH连接的VM实例。 我们只想在内部网络中
使用
Dataproc
集线器实例。我的问题是,如果我
在
创建
Dataproc
集线器实例时选择了内部IP地址,并且没有可用的SSH连接,则需要进行哪些额外的更改? 提前谢谢。
浏览 28
提问于2021-08-11
得票数 3
3
回答
是否可以
使用
Google
Dataproc
上
的初始化脚本向集群提交作业?
、
我
在
1个集群
上
使用
1个作业的
Dataproc
。 我希望
在
创建群集后立即开始我的作业。我发现实现这一点的最佳方法是
使用
如下所示的初始化脚本提交作业。gcloud
dataproc
jobs submit pyspark ...export -f submit_job echo "checkinggcloud
dataproc
clusters list --region=
浏览 54
提问于2021-09-03
得票数 3
回答已采纳
2
回答
在
google的数据过程中创建的Jupyter的默认密码是什么
、
、
我
使用
这里的链接中的步骤设置了数据流程 我没有设置任何密码。我
运行
了../root$ sudo grep -ir password并获得了以下结果,因此确认没有设置密码.jupyter/jupyter_
notebook
_config.py
浏览 10
提问于2016-12-13
得票数 5
回答已采纳
1
回答
Dataproc
:
Notebook
集群模式中的Spark
、
、
、
、
我想知道,
Dataproc
是否提供了
在
Jupyter
Notebook
中以集群模式
使用
Spark的可能性? 如果是,它是
如何
工作的?
浏览 24
提问于2020-07-24
得票数 1
1
回答
在
Jupyter中
使用
pip导致Google
Dataproc
集群中的内核死机
、
、
我
使用
以下命令创建了一个
Dataproc
集群: gcloud beta
dataproc
clusters create my-cluster \ --project my-project \,gs://goog-
dataproc
-initialization-actions-${REGION}/python/conda-install.sh,gs://goog-
dataproc
-initialization-actionsspark-b
浏览 13
提问于2020-01-30
得票数 1
2
回答
木星笔记本/实验室将当前目录设置为ipynb文件的
、
、
、
、
期望行为/home/user/notebooks/
notebook
1.ipynb/home/user/notebooks/
notebook
1_output.log/home/user/notebooks问题 然而,我们现在正在尝试Google和木星可选组件,并且当前目录始终是/,而不管它从哪个笔
浏览 9
提问于2022-07-06
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券