腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
java大数据
专栏作者
举报
627
文章
443534
阅读量
29
订阅数
订阅专栏
申请加入专栏
全部文章(627)
java(253)
jsp(114)
javascript(91)
html(46)
编程算法(30)
大数据(30)
spring(24)
http(24)
maven(14)
servlet(13)
数据库(13)
ide(12)
eclipse(12)
git(11)
scala(9)
xml(9)
人工智能(8)
https(8)
网站(7)
css(6)
github(6)
svn(5)
网络安全(5)
spark(5)
hadoop(5)
面向对象编程(5)
sql(4)
神经网络(4)
开源(4)
anaconda(4)
php(3)
python(3)
node.js(3)
mvc(3)
mapreduce(3)
mybatis(3)
负载均衡(2)
tensorflow(2)
c++(2)
jquery(2)
api(2)
容器(2)
存储(2)
jdk(2)
卷积神经网络(2)
spring cloud(2)
windows(2)
微服务(2)
bash(1)
json(1)
android(1)
云数据库 SQL Server(1)
jar(1)
linux(1)
负载均衡缓存(1)
apache(1)
bash 指令(1)
yarn(1)
分布式(1)
运维(1)
shell(1)
ssh(1)
spring boot(1)
jdbc(1)
aop(1)
微信(1)
add(1)
area(1)
background(1)
branch(1)
commit(1)
directory(1)
document(1)
edit(1)
firebug(1)
function(1)
import(1)
int(1)
io(1)
list(1)
profile(1)
push(1)
repository(1)
rsa(1)
script(1)
spyder(1)
target(1)
text(1)
union(1)
var(1)
web(1)
width(1)
对象(1)
工具(1)
开发(1)
开发者(1)
浏览器(1)
模型(1)
搜索文章
搜索
搜索
关闭
Win7 Eclipse 搭建spark java1.8环境:WordCount helloworld例子
spark
java
Win7 Eclipse 搭建spark java1.8环境:WordCount helloworld例子 马克-to-win @ 马克java社区:在eclipse oxygen上创建一个普通的java项目,然后把spark-assembly-1.6.1-hadoop2.6.0.jar这个包导进工程就ok了。只要启动start-dfs,下面的程序就可以运行了。 package com; import java.util.Arrays; import java.util.List; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaPairRDD; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.api.java.function.FlatMapFunction; import org.apache.spark.api.java.function.Function2; import org.apache.spark.api.java.function.PairFunction; import org.apache.spark.api.java.function.VoidFunction; import scala.Tuple2; public class WordCount1 { public static void main(String[] args) { SparkConf conf = new SparkConf().setMaster("local").setAppName("wc");
马克java社区
2019-07-17
394
0
请给出一个Scala RDD的HelloWorld例子
spark
编程算法
package com import org.apache.spark.rdd.RDD import org.apache.spark.SparkConf import org.apache.spark.SparkContext object TestRDD { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("TestRDD").setMaster("local") val sc = new SparkContext(conf) val rdd1 = sc.makeRDD(List(1, 4, 3, 7, 5)) val rdd1_1 = rdd1.map { y => y * y } val aList = rdd1_1.collect() println("map 用法 is " + aList.mkString(",")) val rdd2 = sc.makeRDD(Array(1, 4, 3, 7, 5)) val rdd2_1 = rdd2.filter { x => x < 5 } println("filter 用法 " + rdd2_1.collect().mkString(","))
马克java社区
2019-07-16
424
0
Win7 Eclipse 搭建spark java1.8编译环境,JavaRDD的helloworld例子
java
spark
Win7 Eclipse 搭建spark java1.8编译环境,JavaRDD的helloworld例子:
马克java社区
2019-07-17
482
0
Windows32或64位下载安装配置Spark
spark
hadoop
java
scala
Windows 32或64位下载安装配置Spark: 1)下载地址:http://spark.apache.org/downloads.html 马克-to-win @ 马克java社区:选择需要下载的Spark版本,我选的是当前最新的版本2.2.0。因为我已经安装了Hadoop 2.7.4版本的,所以我选择对应的Pre-built for Hadoop 2.7 and later。注意网站上说scala要求2.11版本以上。(在我的新机器上,是没有预先装scala的,先装的spark, 证明这么装的顺序是可行的)
马克java社区
2019-06-22
778
0
Win7 Eclipse 搭建spark java1.8(lambda)环境:WordCount helloworld例子
java
编程算法
spark
Win7 Eclipse 搭建spark java1.8(lambda)环境:WordCount helloworld例子 lambda表达式是java8给我们带来的一个重量的新特性,借用lambda表达式可以让我们的程序设计更加简洁。 package com; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaPairRDD; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.api.java.function.VoidFunction; import scala.Tuple2; import java.util.Arrays; import java.util.List; public class WordCountLambda { public static void main(String[] args) { SparkConf conf = new SparkConf().setAppName("WordCountLambda马克-to-win @ 马克java社区:").setMaster("local"); JavaSparkContext sc = new JavaSparkContext(conf); JavaRDD<String> lines = sc.textFile("E://temp//input//friend.txt"); JavaRDD<String> words = lines.flatMap(line -> Arrays.asList(line.split(" "))); JavaPairRDD<String, Integer> wordAndOne = words.mapToPair(word -> new Tuple2<>(word, 1)); JavaPairRDD<String, Integer> results = wordAndOne.reduceByKey((x, y) -> x + y); /* 下面一句也能工作。*/ // reduced.saveAsTextFile("E://temp//input//friend1.txt"); /*word:o1abc count:4 word:45 count:1 word:77 count:1*/ results.foreach(new VoidFunction<Tuple2<String,Integer>>() { public void call(Tuple2<String, Integer> tuple) throws Exception { System.out.println("word:" + tuple._1 + " count:" + tuple._2); } }); /*resultsPair is (o1abc,4) resultsPair is (45,1) resultsPair is (77,1)*/ List<Tuple2<String,Integer>> resultsPairs = results.collect(); for (Tuple2<String, Integer> resultsPair : resultsPairs) {
马克java社区
2019-07-19
417
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档