腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
深度学习之tensorflow实战篇
专栏作者
举报
604
文章
1403625
阅读量
84
订阅数
订阅专栏
申请加入专栏
全部文章
python
编程算法
数据库
sql
r 语言
mongodb
云数据库 SQL Server
其他
http
机器学习
linux
人工智能
神经网络
html
深度学习
hive
https
java
大数据
numpy
云数据库 MongoDB
windows
NLP 服务
django
网络安全
hadoop
数据结构
tensorflow
github
决策树
ide
git
数据分析
数据处理
javascript
bash
json
开源
数据挖掘
node.js
ubuntu
线性回归
go
bash 指令
shell
anaconda
xml
windows server
mapreduce
爬虫
spark
正则表达式
云数据库 Redis
存储
text
c 语言
c++
oracle
nosql
ruby on rails
api
jar
中文分词
nginx
腾讯云测试服务
分布式
html5
ssh
sql server
监督学习
推荐系统
csv
data
label
list
sort
txt
博客
字符串
区块链
php
c#
css
access
打包
unix
apt-get
批量计算
文件存储
访问管理
云推荐引擎
网站
xslt & xpath
jdk
gui
ftp
grep
pytorch
db
dot
edge
file
graph
header
igraph
integer
key
max
min
plot
poi
sample
scale
size
stdout
sum
time
集合
开发
日志
调试
终端
费用中心
官方文档
ios
.net
jsp
scala
单片机
sqlalchemy
eclipse
matlab
搜索引擎
centos
日志服务
命令行工具
NAT 网关
数据加密服务
电商
企业
容器
缓存
运维
压力测试
数据迁移
jvm
yum
面向对象编程
hashmap
keras
二叉树
tcp/ip
单元测试
kernel
scikit-learn
socket编程
kerberos
系统架构
nat
kafka
特征工程
聚类算法
unicode
腾讯云图数据可视化
数据库管理
add
app
apple
apply
axis
bayesian
bi
bit
blob
boolean
break
browser
center
character
cmd
code
codec
configuration
copy
count
counter
criteria
database
default
desktop
distance
distribution
driver
encode
encoding
error
excel
exists
flags
flatten
frame
frequency
gaussian
ggplot2
global
handle
hash
input
instance
int
lapply
limit
line
map
median
multiprocessing
na
normalization
pandas
path
pool
predict
probability
proc
ps
pycharm
random
reduce
require
root
sampling
scanf
server
slice
static
sudo
table
tar
tensor
transpose
typeerror
union
vector
version
view
width
word
word2vec
xgboost
zip
笔记
编程
遍历
编码
程序
登录
递归
函数
加密
解决方案
快捷键
连接
数据
数据中心
数组
索引
虚拟机
压缩
优化
语法
原理
搜索文章
搜索
搜索
关闭
python 安装spark_Spark环境搭建 (Python)
spark
hadoop
python
—————————————————————————————————— 2018-5-11更新
学到老
2019-02-14
940
0
Hadoop查看所有JOB以及如何Kill指定用户的所有Job
hadoop
如何kill掉制定用户的所有job,有没有现成的命令?我看了一下hadoop job命令的提示,没有这样的命令。 其实实现kill指定用户的job也非常简单,本身hadoop job命令已经带有很多实用的job管理功能了。
学到老
2019-02-14
1.5K
0
大数据与Hadoop/Linux/hive的关系
hadoop
?
学到老
2019-02-14
781
0
python下Kafka 教程系列(二)安装与基本操作
kafka
hadoop
python
kafka简介(摘自百度百科) 简介: afka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 对于像Hadoop的一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。Kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群来提供实时的消费。
学到老
2019-01-25
1.3K
0
python下的pyspark报错集锦
spark
access
hadoop
kerberos
bash
出现这种错误是是在spark启动从节点时出现的。 解决的方法是,在spark-env.sh中加入一条 SPARK_LOCAL_IP=127.0.0.1 然后就完美解决报错了! D:\spark\spark-2.2.0-bin-hadoop2.7\bin找到load-spark-env.sh,之后notepad打开,增加如下,完成
学到老
2019-01-25
1.6K
0
R分词继续,\"不|知道|你在|说|什么\"分词添加新词
r 语言
分布式
hadoop
机器学习
* 中文分词常用实现: 单机:R语言+Rwordseg分词包 (建议数据量<1G) 分布式:Hadoop+Smallseg库 词库:Sougou词库,Sougou输入法官网可下载 这里只先介绍单机的实现: 1、R语言:专门用于统计分析、绘图的语言 2、Rwordseg分词包:引用了@ansj开发的ansj中文分词工具,基于中科院的ictclas中文分词算法,无论是准确度还是运行效率都超过了rmmseg4j。 * 环境准备 (Windows或Linux版本都行): R下载:http://mirrors.us
学到老
2018-03-19
1K
0
Hadoop查看所有JOB以及如何Kill指定用户的所有Job
hadoop
grep
如何kill掉制定用户的所有job,有没有现成的命令?我看了一下hadoop job命令的提示,没有这样的命令。 其实实现kill指定用户的job也非常简单,本身hadoop job命令已经带有很多实用的job管理功能了。 列出Jobtracer上所有的作业 hadoop job -list 使用hadoop job -kill杀掉指定的jobid hadoop job -kill job_id 组合以上两条命令就可以实现kill掉指定用户的job for i in `hadoop job -list |
学到老
2018-03-16
1.8K
0
大数据与Hadoop/Linux/hive的关系
大数据
hadoop
linux
hive
?
学到老
2018-03-16
1.1K
0
Hadoop 2016年11月24日
hadoop
jsp
windows
安装完hadoop,下面我们从视觉上看看hadoop怎么玩的。 我们可以在win7系统上,通过web界面,在浏览器地址栏输入地址,直接查看hadoop的运行情况; 10.10.11.191:500
学到老
2018-03-16
526
0
hadoop常用的基本命令,HIVE复制文件,修改文件名
hadoop
hive
java
创建目录 hadoop dfs -mkdir /home 上传文件或目录到hdfs hadoop dfs -put hello / hadoop dfs -put hellodir/ / 查看目录 hadoop dfs -ls / 创建一个空文件 hadoop dfs -touchz /wahaha 删除一个文件 hadoop dfs -rm /wahaha 删除一个目录 hadoop dfs -rmr /home 重命名 hadoop dfs -mv /hello1 /hello2 查看文件
学到老
2018-03-16
1.9K
0
hadoop-R语言-安装NLP自然语言分析包
hadoop
r 语言
NLP 服务
linux
引言: R语言是一种非常强大的分析与展示的统计科学家工具,其也提供了若干关于自然语言的分析处理工具,本文讲展示如何在Linux进行安置。 1. 自然语言处理(NLP) 对于英语体系,基于空格可以直接进行分词,而中文则不同,需要进行分词,然后进行后续处理。NLP是natural language processing的缩写,专指此类的工作。 自然语言处理包: Snowball, RWeka 文本挖掘: tm 分词工具: Rwordseg 2. 所属环境 Linux: c
学到老
2018-03-16
832
0
hive数据:名词解释
hive
hadoop
问题导读 1.hive数据分为那两种类型? 2.什么表数据? 3.什么是元数据? 4.Hive表里面导入数据的本质什么? 5.表、分区、桶之间之间的关系是什么? 6.外部表和表的区别是什么? Hive的数据分为表数据和元数据,表数据是Hive中表格(table)具有的数据;而元数据是用来存储表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。下面分别来介绍。 一、Hive的数据存储 在让你真正明白什么是hive 博文中我们提到Hive是基于Hadoop分布式文件系统的,
学到老
2018-03-16
1.1K
0
没有更多了
社区活动
Python精品学习库
代码在线跑,知识轻松学
点击查看
热点技术征文第五期
新风口Sora来袭,普通人该如何把握机会?
立即参加
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档