腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
ImportError:导入
apache
_
beam
作为梁。模块未找到
、
、
、
、
我已经
在
一个码头上安装了
apache
_
beam
Python和
airflow
。Python版本: 3.5我正在尝试
使用
**
DataflowPythonOperator
**执行
apache
波束
管道
。当我从气流用户界面
运行
DAG时,我得到 导入错误:导入
apache
_
beam
作为光束。
在
SSH进入码头后,当我
在
一个码头容器
中</
浏览 1
提问于2019-09-06
得票数 1
1
回答
如何
使用
DataflowPythonOperator
在
Apache
Airflow
中
运行
Apache
Beam
数据
管道
、
、
、
、
我已经
在
我的
Airflow
DAG
中
实现了
DataflowPythonOperator
,
在
执行时,我得到了下面的错误: 2019-06-12 07:04:27,988] {{models.py:1595}} INFO - Executing <Task(
DataFlowPythonOperator
): task_run_pipeline> on 2019-05-01T04:10:00+00:00 [2019recent call last):\n File "
浏览 11
提问于2019-06-13
得票数 0
回答已采纳
1
回答
气流异常:
数据
流失败,返回代码2
、
、
、
我正在尝试执行一个
数据
流python文件,该文件
使用
DataFlowPythonOperator
从GCS桶
中
读取文本文件。我能够独立地执行python文件,但是当我通过气流执行它时,它失败了。我
使用
一个服务帐户来验证我的默认gcp连接。
airflow
.contrib.operators.dataflow_operator import
DataFlowPythonOperator
from datetime import datetimeas
beam
浏览 0
提问于2018-05-04
得票数 2
2
回答
GCP Composer -
如何
运行
Python 3而不是Python 2
、
、
、
我正在
使用
GCP作曲家来编排ETL…。
在
创建实例时,我将Python版本设置为Python 3每当我们部署到composer-1.7.9-
airflow
-1.10.1时,任务都会
使用</em
浏览 3
提问于2019-12-16
得票数 1
回答已采纳
1
回答
通过气流
运行
数据
流作业时出错:模块“
apache
_
beam
.io”没有属性“ReadFromBigQuery”
、
、
、
、
:42,613] {taskinstance.py:1059} ERROR - DataFlow failed with return code 1fromdatetime import datetime, timedelta from
airflow
.contrib.operators.dataflow_operator波束
管道
:from datetime import date
浏览 4
提问于2021-05-05
得票数 0
回答已采纳
2
回答
哪种开源框架最适合ETL、
Apache
Airflow
或
Apache
Beam
?
、
、
、
、
我正在尝试用开源框架来做ETL,我听说过两件事,
Apache
Beam
和
Apache
Airflow
,这两件事最适合整个ETL或ELT,比如Talend、Azure Data Factory等,事实上,我正在尝试用云
数据
仓库(redshift、azure
数据
仓库、雪花等)来做所有的事情。
浏览 35
提问于2019-07-09
得票数 0
1
回答
成功的
数据
流
管道
通过PythonVirtualenvOperator
在
气流
中
多次
运行
、
、
、
我正在
运行
一个
Apache
管道
(与Google一起部署),该
管道
是由
Apache
气流组织的。dag=dag波束
管道
文件(custom_py_file.py)如下: import
apache
_
beam
as
beam
fromPython3和BashOperator,我需要Python3来
运行
这个
管道
。问题是,尽管成功
运行<
浏览 3
提问于2019-11-05
得票数 2
回答已采纳
2
回答
数据
流BigQuery到BigQuery
、
、
、
我正在尝试创建一个从BigQuery返回到BigQuery的
数据
流脚本。我们的主桌是巨大的,破坏了提取能力。我想创建一个包含所有相关信息的简单表(作为查询的结果)。另外,我怎样才能让它每天早上自动
运行
?import loggingimport
apache
_
beam
as
beam
BUCKET='temp1/python2rows = p | 'read' >
浏览 0
提问于2018-03-13
得票数 1
回答已采纳
3
回答
没有名为airfow.gcp的模块-
如何
运行
使用
python3/
beam
2.15的
数据
流作业?
、
、
、
当我
使用
像BigQueryHook这样的运算符/钩子时,我看到一条消息,指出这些运算符已弃用,请
使用
airflow
.gcp...运算符版本。但是,当我尝试
在
dag中
使用
它时,它失败了,并且没有显示名为
airflow
.gcp的模块。我有最新的
airflow
composer版本,带有测试版功能,python3。我正在尝试
使用
beam
2.15
在
Python3
中
运行
数
浏览 26
提问于2019-10-25
得票数 8
回答已采纳
1
回答
从编写器触发DataFlow作业启动时间过长
、
、
数据
流选项如下:from
apache
_
beam
.io import ReadFromText, WriteToText
在
本地
运行
这个
数据
流需要大约6分钟来完成,大部分时间都是
在
员工启动时完成的。我试着用Composer实现这段代码的自
浏览 5
提问于2022-08-11
得票数 1
回答已采纳
1
回答
Google Dataflow:导入自定义Python模块
、
、
、
我尝试
在
Google Cloud Dataflow
中
运行
Apache
光束
管道
(Python),这是由Google Cloud Coomposer
中
的DAG触发的。
Beam
的文档和答案,所以: import setuptools setuptools.setup(setuptools.find_packages())
在
DAG文件(dataflow.py)
中
,setup_file': os.path.join(configu
浏览 16
提问于2020-01-13
得票数 2
2
回答
如何
使用
Apache
(
数据
流)从API
中
获取
数据
?
、
、
我们有一个Python程序,它被设置为一个云函数,但是它正在超时,因为有太多的
数据
要加载,我们希望重写它,以便在Dataflow
中
工作。目前,代码只需连接到API,API返回换行符JSON,然后将
数据
加载到BigQuery
中
的一个新表
中
。 这是我们第一次
使用
Dataflow,我们只是想了解它是
如何
工作的。将
数据
输入BigQuery似乎相当容易,我们遇到的绊脚石是
如何
将
数据
从API中提取出来。我们还不清楚我们
如
浏览 1
提问于2021-03-18
得票数 0
回答已采纳
2
回答
气流安装故障
beam
[gcp]
、
、
、
带命令的气流安装失败昨天一切都很好。今天,我看到了以下错误: Could not find a version that satisfies the requirement
apache
-
beam
[gcp]==2.3.0 (from google-cloud-dataflow->
apache
-
airflow
[gcp_api]) (from versions: 0.6.0, 2.0.0, 2.1.0
浏览 0
提问于2018-03-01
得票数 5
回答已采纳
2
回答
如何
在Python
中
创建从发布/订阅到GCS的
数据
流
管道
、
、
、
我想
使用
Dataflow将
数据
从发布/订阅移动到GCS。因此,基本上我希望Dataflow
在
固定的时间内(例如15分钟)积累一些消息,然后
在
该时间段过去后将这些
数据
作为文本文件写入GCS。我的最终目标是创建一个自定义的
管道
,所以“发布/订阅到云存储”模板对我来说是不够的,而且我对Java一无所知,这让我开始
在
Python中进行调整。res = p.run() res.wait_until_finish() 我
在
本地环境
中</
浏览 6
提问于2019-02-18
得票数 7
回答已采纳
1
回答
使用
Composer启动CloudDataFlow Java应用程序时出错
、
我是一个GCP新手,
在
尝试
使用
GCP
运行
云
数据
流应用程序时会遇到一个错误。气流收集
管道
,但失败与以下的错误。gcp_dataflow_hook.py:115} INFO - Running command: java -cp /tmp/dataflow13ec2a50-BeamTutorial-0.0.1-SNAPSHOT.jar org.
apache
.
beam
.examples.tutorial.game.solution.Exercise2--
浏览 3
提问于2018-10-18
得票数 1
1
回答
azure-快速入门-
airflow
2的模板
、
、
、
、
几天前,我
使用
的azure快速入门模板安装了
AirFlow
1.X 我正在寻找一个类似的模板,以方便(只是尝试)
在
Azure上部署
Airflow
2。我试着从上面的链接修改模板,指向官方的
Apache
Airflow
图像,但
airflow
应用程序一直关闭。
浏览 4
提问于2021-09-15
得票数 0
1
回答
如何
连接kubernetes
中
的2个pods,因为它们位于同一局域网
中
,并且所有端口都已打开
、
、
、
TLDR;目前,我们已经
在
Kubernetes集群
中
实现了
airflow
,并且为了
使用
TensorFlow扩展,我们需要
使用
Apache
。对于我们的用例,Spark将是要
使用
的合适的runner,因为
airflow
和TensorFlow是用python编写的,所以我们需要
浏览 43
提问于2021-02-23
得票数 2
1
回答
无法通过气流BeamRunPythonPipelineOperator
运行
python
管道
、
、
、
、
我无法通过气流BeamRunPythonPipelineOperator
运行
python
管道
。import DataflowConfiguration from
apache
_
beam
.io import ReadFromText
浏览 1
提问于2021-10-30
得票数 1
回答已采纳
3
回答
在
google cloud上训练神经网络时出现"Unable to get Filesystem for path“错误
、
、
、
、
我正在
使用
Google Cloud
在
云上训练神经网络,如以下示例所示: PROJECT_ID=$(gcloud config list project --format"value(core.project)")然后,我
使用
以下命令将我的训练和评估
数据
上传到谷歌云存储:然后,我验证了这两个csv文件是否<
浏览 2
提问于2017-05-23
得票数 9
1
回答
Dataflow
中
的自定义
Apache
Beam
Python版本
、
、
我想知道是否有可能有一个自定义的阿帕奇光束Python版本
运行
在谷歌
数据
流。
在
公共存储库
中
不可用的版本(
在
撰写本文时: 0.6.0和2.0.0)。例如,来自
Apache
Beam
官方存储库的HEAD版本,或与此相关的特定标签。 我知道打包定制包(例如私有的本地包)的可能性,正如官方中所描述的那样。这里有关于
如何
为其他一些脚本做这件事的答案是。但我还没有设法得到当前的
Apache
光束开发版本(或标记的版本),该版本可在其官方存储库的主分
浏览 16
提问于2017-07-27
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
AWS推出Apache Airflow全托管工作流MWAA
迁移工具 Air2phin 宣布开源,2 步迁移 Airflow 至 Dolphinscheduler
Apache软件基金会现价值 200 亿美元
自学14天后,我毁掉了自己的数据工程师面试
Astronomer 发布新平台,数据可靠性成为 AI 发展最大障碍
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券