腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
BigQuery
unix_timestamp
中
的
SparkSQL
等效
项
apache-spark-sql
、
google-bigquery
、
unix-timestamp
我正在尝试理解下面这一行,并用
BigQuery
SQL编写它
的
等价物: from_unixtime(
unix_timestamp
('2019-01-15', 'yyyy-MM-dd') - 900)
SparkSQL
中
的
这一行到底是做什么
的
,在
BigQuery
语法
中
与此相当
的
是什么?
浏览 49
提问于2021-03-02
得票数 1
回答已采纳
2
回答
使用时间戳条件
的
性能
mysql
、
performance
以下哪一
项
更快,或者它们是
等效
的
?(从时间戳列
中
抓取最近
的
记录)FROM `some_table`ORDERBY stamp DESCSELECT
UNIX_TIMESTAMP
(`modified`) stampWHERE
UNIX_TIMESTAMP
(`modified
浏览 0
提问于2010-04-08
得票数 4
回答已采纳
1
回答
在
BigQuery
中将YYYYDDD字符串转换为YYYYMMDD
sql
、
google-bigquery
有没有办法在SQL语句中将YYYYDDD2007之类
的
日期格式转换为
BigQuery
中
的
YYYYMMDD
等效
项
( 2007001 -01-01)?
浏览 40
提问于2019-03-20
得票数 2
回答已采纳
1
回答
从星火sql
中
的
间隔中提取小时
apache-spark-sql
、
databricks
我想知道如何正确提取给定
的
两个时间戳对象之间
的
小时数。考虑到x值表示预期
的
返回值,我觉得很奇怪。提前感谢!
浏览 1
提问于2022-04-26
得票数 3
回答已采纳
4
回答
如何在Server
中
获得两个日期之间
的
秒数?
sql-server
、
tsql
我有这个MySQL代码Server
中
此MySQL代码
的
等效
性是什么?
浏览 6
提问于2014-11-20
得票数 20
回答已采纳
1
回答
GA4大查询
中
的
命中次数属性
等效
google-bigquery
在
Bigquery
中
,是否存在从UA结构到GA4结构
的
属性命中数
等效
项
。我正在尝试识别唯一
的
行/事件,但使用散列键生成器除外。
浏览 0
提问于2021-10-26
得票数 0
2
回答
使用standart sql,如何将时间戳转换为unix time?
sql
、
google-bigquery
、
timestamp
、
unix-timestamp
在mysql
中
,为了比较两个时间戳,可以这样做: where
UNIX_TIMESTAMP
(transaction.closed_on)<
UNIX_TIMESTAMP
(transaction.opened_onGoogle
的
等效
函数是什么?
浏览 4
提问于2019-10-23
得票数 0
回答已采纳
2
回答
Hive和
SparkSQL
不支持日期时间类型?
sql
、
hive
、
apache-spark-sql
Hive和
SparkSQL
不支持datetime
的
数据类型是真的吗? cast(from_unixtime(
unix_timestamp
(now())) select current_date
浏览 6
提问于2017-10-21
得票数 7
回答已采纳
1
回答
火花UDF型失配误差
scala
、
apache-spark
、
apache-spark-sql
、
user-defined-functions
我正在尝试编写一个UDF,以便将时间戳转换为表示一周
中
每小时
的
整数。我很容易就能像这样用
SparkSql
来完成这个任务。 (ts: Timestamp) =>
unix_time
浏览 2
提问于2017-03-07
得票数 1
回答已采纳
1
回答
PySpark - Spark :如何将带有UTC偏移量
的
时间戳转换为epoch/unixtime?
pyspark
、
apache-spark-sql
、
pyspark-sql
如何使用Spark或2019-08-22T23:57:57-07:00将格式
的
时间戳转换为unixtime?谢谢
浏览 2
提问于2019-09-20
得票数 3
回答已采纳
1
回答
FastExport
的
BigQuery
等效
项
google-cloud-platform
、
google-bigquery
、
teradata
、
data-warehouse
、
fastexport
我有多个Teradata快速导出
的
用例,用于提取各种报告
的
数据并提供给一些大型机作业(二进制数据)。在
BigQuery
中
,我有一种方法可以运行**bq extract **,但是选项有限。我想知道在
BigQuery
中有没有与FastExport类似的工具。
浏览 5
提问于2019-11-08
得票数 0
1
回答
Cassandra逻辑行
的
SparkSQL
跨越
apache-spark
、
cassandra
、
pyspark
、
apache-spark-sql
、
pyspark-sql
在这种情况下,我希望使用
SparkSQL
“迭代”或映射“宽行”,而不是逻辑Cassandra行(CQL行)。基本上,我
的
数据是通过timestamp (分区键)进行分区
的
,并且有一个聚集键,即传感器ID。我阅读了,其中提到了Cassandra连接器<
浏览 0
提问于2016-03-13
得票数 0
1
回答
SparkSQL
/Hive:相当于MySQL
的
`information_schema.table.{data_length,table_rows}?
apache-spark
、
hive
、
apache-spark-sql
、
hiveql
在MySQL
中
,我们可以查询表information_schema.tables并获得有用
的
信息,例如data_length或table_rows。-----------++-------------+------------+是否存在与
SparkSQL
/Hive
等效
的
机制?我可以使用
SparkSQL
或像HiveMetaStoreClient (java org.apa
浏览 1
提问于2018-03-09
得票数 3
回答已采纳
1
回答
相当于MySQL在
SparkSQL
中
的
“显示处理列表”
apache-spark-sql
在MySQL
的
命令show processlist;中有Apache
SparkSQL
的
等价物吗?
浏览 3
提问于2017-10-17
得票数 0
回答已采纳
2
回答
正在获取配置单元查询中上个月
的
最后一天
oracle
、
hive
、
sysdate
我是新来蜂巢
的
,我需要从蜂巢
的
一张桌子上拿到上个月
的
最后一天。SQL
等效
项
我只能在互联网上看到前一天
的
内容,比如from table1where dt >= from_unixtime(
unix_timestamp
()-1*60*60*24, 'yyyyMMdd'); 有没有人能帮我解决这个问题?
浏览 0
提问于2015-10-14
得票数 3
1
回答
带有变量
的
SQL编译语句
的
SparkSQL
等效
项
apache-spark
、
apache-spark-sql
我需要以高效
的
方式执行
SparkSQL
语句。例如:一次编译,多次执行(使用不同
的
参数值)。下面是一个简单
的
SQL示例:其中:1是一个绑定变量,因此该语句只编译一次,并执行N次(具有不同
的
值),因此我需要相同
的
SparkSQL
这样
的
东西:df_result = spark.sql("select * from my_table where ye
浏览 0
提问于2020-08-11
得票数 0
1
回答
SQL查询
的
BigQuery
等效
项
sql
、
google-bigquery
、
gcloud
我想在
BigQuery
中
运行以下查询,理想情况下尽可能高效。我
的
想法是,我有数百万用户
的
测试(每天进行)对应
的
所有这些行,我想确定,在活跃了一年以上
的
用户
中
,每个用户都提高了多少。在这种情况下,“改进”是从最后
的
N减去前N
的
平均值。 在本例
中
,N为30。(我还添加了where cnt >= 100部分,因为我不想考虑那些很久以前参加过测试,然后又回来再次尝试
的
用户。)
浏览 9
提问于2019-06-05
得票数 0
回答已采纳
1
回答
选择本周创建
的
所有行(从星期日开始)
mysql
、
date
、
datetime
、
unix-timestamp
部分答案编辑: 基本上,我只想选择今天
的
行,而不是最近24小时
的
行,我想选择7月份
的
行,而不是最近31天
的
行(7/1/13 -> 7/31/13,-> 6/25/13 -> 7/25/13)。这是我用来只选择今天
的
行
的
方法。我使用America/Los Angeles作为用户指定时区
的
占位符(将使用PHP填充)。下面使用
的
“时间戳”只是创建行时<
浏览 3
提问于2013-07-25
得票数 0
1
回答
相当于MySQL在Apache
SparkSQL
中
的
“杀死查询”?
apache-spark-sql
MySQL
的
命令kill query (定义为)是否等同于Apache
SparkSQL
?谢谢!
浏览 2
提问于2017-10-17
得票数 0
回答已采纳
1
回答
Spark查询
中
重新分区
的
使用
apache-spark
、
apache-spark-sql
我在某个地方读过关于在REPARTITION()查询中使用
SparkSQL
之前使用
SparkSQL
以获得更好
的
性能
的
文章。但是,我使用
的
是朴素PySparkSQL查询(而不是 PySparkSQL),并且我很难在这样
的
简单查询中找到REPARTITION
的
等效
用法语法,如下所示。*/from table1 t1on t1.id = t2.id; 请大家分
浏览 3
提问于2020-06-19
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何用纯SQL查询语句可以实现神经网络?
如何用纯SQL查询语句实现神经网络
抛弃Spark?Flink会是下一代大数据计算引擎吗?
谷歌数据工具支持ETH,可读取、分析以太坊上所有数据
Google Cloud 发布 COVID-19 数据集,可构建 AI 模型来对抗疫情
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券