腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1055)
视频
沙龙
0
回答
我
需
要在
Spark
Streaming
中将
org.apache.spark
.rdd.RDD[
Array
[
Byte
] ]转
换为
Array
[
Byte
]
、
、
、
我
正在尝试通过kafka将json文件解析为
spark
流。 parseAVROToString(rdd)要使用parseAVROToString,
我
需要
Array
[
Byte
]。
我
收到以下错误消息: found :
org.apache.spark
.rdd.RDD[
Array
浏览 3
提问于2016-07-13
得票数 1
回答已采纳
1
回答
Scala错误火花流Kafka :对重载定义的模糊引用
、
、
我
正在尝试创建kafka直接流,在
我
的星火流模块中外部提供偏移,但是它会导致下面的编译错误。(mmd: MessageAndMetadata[
Array
[
Byte
],
Array
[
Byte
]]) => mmd.message()) 下面是
我
遇到的编译错误。[kafka.message.MessageAndMetadata[
Array
[
Byte
],
Array
[
Byte
]],
Array</
浏览 1
提问于2016-06-03
得票数 1
回答已采纳
1
回答
是否可以在
Spark
+KafkaRDD中获取特定的消息偏移量
、
、
我
使用的方法如下: (mmd.message(), mmd.offset) val messagesAndMetadata = KafkaUtils.createRDD[String,
Array
[
Byte
], StringDecoder, DefaultDecoderString,String], offsetRanges:
Arr
浏览 1
提问于2016-08-04
得票数 1
2
回答
Array
[
Byte
]
Spark
字符串
Spark
、
、
我
使用Cloudera的SparkOnHBase模块从HBase获取数据。
我
用这种方式得到了一个RDD:基于此,
我
得到的是一个类型的对象。RDD[(
Array
[
Byte
], List[(
Array
[
Byte
],
Array
[
Byte
],
Array
[
Byte
浏览 4
提问于2015-10-21
得票数 1
回答已采纳
1
回答
RDD[( Long,
Array
[
Byte
])]与具有长字段的case类的RDD之间的连接
、
、
我
有两个RDDs和一个case类,如下所示:case class Elem(id: Long, content: Map[
Byte
, Int])rdd2:RDD[Elem]
我
怎么才能加入他们呢?
我
应该如何指示Elem有一个应该用于join操作的id:Long?有可能做到这一点吗?
浏览 0
提问于2019-11-20
得票数 0
1
回答
使用Scala插件在IntelliJ中创建解码字节数组的流时出现
Spark
createStream错误
、
、
、
我
正在尝试修改KafkaWordCount
spark
streaming
示例以接受字节流。这是
我
到目前为止的代码: if (args.length < 4) {val lines = KafkaUtils.createStream[String,
Array
[
Byte
], Defaul
浏览 4
提问于2015-10-25
得票数 2
0
回答
尝试发布到Kafka时获取任务序列化异常
、
、
我
正在执行一个
Spark
Streaming
作业,
我
想发布
我
的DStreamGenericData.Record类型的result_dstream,所以我使用了下面的代码来实现这个目的,但是得到的任务不是可序列化的异常val
byte
:
Array
[
Byte
] = recordInjection.apply(record) val prod_record : ProducerRecord[String,
Array
[
浏览 2
提问于2017-06-19
得票数 1
回答已采纳
3
回答
使用模式将带有
Spark
的AVRO消息转
换为
DataFrame
、
、
、
、
是否有一种方法可以使用模式将消息从与转
换为
?DataFrame之外,
我
找不到其他方法。
我
正在使用
Spark
1.6.2和Kafka 0.10。import org.apache.avro.Schemaimport
org.apache.spark
.rdd.RDDimport org.apache.
spark
.
浏览 6
提问于2016-08-20
得票数 14
回答已采纳
3
回答
如何在scala/
spark
中将
Array
[
Byte
]转
换为
Array
[Int]?
、
我
有一个
Array
[
Byte
],
我
想把它转换成
Array
[Int]:val x :
Array
[
Byte
] =
Array
(192.toByte, 168.toByte, 1.toByte,9.toByte) 如何将x转
换为
y?
浏览 10
提问于2018-07-16
得票数 0
1
回答
为什么在访问偏移量时,ClassCastException与重新分区的dstream一起发生流流失败?
、
、
在
我
的星火应用程序中,
我
以如下方式从一个Kafka主题创建了一个DStream: .createDirectStream[String,
Array
[
Byte
], StringDecoder, DefaultDecoder, (String,
Array
[
Byte
])]( kafkaParams, offset.get,{ message: MessageAndMetadata[String, <em
浏览 3
提问于2017-05-30
得票数 1
回答已采纳
1
回答
Spark
:如何将rdd.RDD[String]转
换为
rdd.RDD[(
Array
[
Byte
],
Array
[
Byte
])]
、
、
我
正在使用
spark
读取压缩文件这为
我
提供了RDD[string]形式的数据。如何在scala
中将
其转
换为
RDD[(
Array
[
Byte
],
Array
[
Byte
])]?
我
在
spark
上使用terasort。TextOutputFormat[Text,IntWritable]], classOf[o
浏览 3
提问于2016-10-26
得票数 0
1
回答
无法连接从火花流到Kafka: org.apache.
spark
.SparkException: java.net.SocketTimeoutException
、
at org.apache.
spark
.
streaming
.kafka.KafkaCluster$$anonfun$checkErrors$1.apply(KafkaCluster.scala:366) at scala.util.Either.fold(Either.scala:97) at or
浏览 0
提问于2016-04-22
得票数 1
回答已采纳
1
回答
如何在没有sparkContext的情况下创建CassandraTableScanRDD
、
、
、
我
正在使用
spark
streaming
& cassandra连接器,
我
有一些Da类(使用Scala)。在这个道中,
我
想创建"CassandraTableScanRDD“。问题是
我
没有sparkContext。
我
不能忽略它,因为它是不可序列化的。[
Byte
]]] = KafkaUtils.createDirectStream[String,
Array
[
Byte
]](
浏览 8
提问于2016-09-07
得票数 0
1
回答
Spark
不能序列化BufferedImage类
、
、
、
我
在
Spark
2.2.0中有一个不可序列化的类异常。以下是
我
在Scala中要做的工作: 从HDFS读取一组JPEG图像。使用
Array
[
Array
[Int]]方法将
org.apache.spark
.rdd.RDD[
Array
[
Array
[Int]]]转
换为
org.apache.spark
.rdd.RDD[
Array
[
Array
通过转换初始
org.apache.spark
浏览 7
提问于2018-01-16
得票数 1
回答已采纳
2
回答
将UnmanagedMemoryStream转
换为
字节数组
、
、
、
、
简单到此,
我
如何在UnmanagedMemoryStream
中将
VBNET转
换为
Byte
-
Array
?Dim bytes() As
Byte
= My.Resources.AudioFileValue of type 'System.IO.UnmanagedMemoryStream' cannotbe converted to '1-dimensional
array
of
Byte
'.
浏览 0
提问于2013-07-13
得票数 2
回答已采纳
1
回答
在
Spark
Structured中反序列化自引用协议
、
、
、
、
我
有一个自引用的protobuf模式: uint64 timestamp = 1; }def main(args :
Array
[String]) { v
浏览 14
提问于2018-07-18
得票数 3
回答已采纳
1
回答
如何解决与当前可用偏移量不同的当前承诺偏移量?
、
、
、
、
我
正在尝试使用
Spark
Streaming
从Kafka读取avro数据,但收到以下错误消息:===
Streaming
Query === Identifier代码如下(灵感来自xebia-france
spark
-structured-<em
浏览 14
提问于2020-07-31
得票数 0
回答已采纳
1
回答
将
array
<System:
Byte
>^转
换为
材质
、
、
如何在openCV
中将
array
<System:
Byte
>^转
换为
Mat。
我
在c++/cli中收到了一个
array
<System:
Byte
>^,但我需要将它转
换为
Mat才能读取和显示它。
浏览 1
提问于2013-06-28
得票数 0
回答已采纳
1
回答
无法使用火花结构化流反序列化avro消息,其中键是字符串序列化,值是avro
、
、
、
、
有人能检查一下
我
的代码,看看哪里出了问题吗?") .config("
spark
.
streaming
.kafka.maxRatePerPartition", 2170) .config("
spark
.
streaming
.kafka.maxRetri
浏览 4
提问于2020-03-20
得票数 1
回答已采纳
8
回答
如何将以零结尾的字节数组转
换为
字符串?
我
需要读取[100]
byte
来传输一堆string数据。 因为并不是所有的string都是100个字符,所以
byte
array
的其余部分用0s填充。如果
我
通过:string(byteArray[:])将[100]
byte
转
换为
string,尾部的0将显示为^@^@s。在C中,string将在0上终止,那么在Go
中将
此
byte
array
转
换为
string的最佳方法是什么?
浏览 128
提问于2013-01-09
得票数 531
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券