HiveServer2 是一种可选的 Hive 内置服务,可以允许远程客户端使用不同编程语言向 Hive 提交请求并返回结果。HiveServer2 是 HiveServer1 的改进版,主要解决了无法处理来自多个客户端的并发请求以及身份验证问题。具体可以参阅 一起了解一下HiveServer2。下面我们具体看一下如何配置 HiveServer2。
Hive 中集成了 Thrift 服务。Thrift 是 Facebook 开发的一个软件框架,它用来进行可扩展且跨语言的服务的开发。Hive 的 HiveServer2 就是基于 Thrift 的,所以能让不同的语言如 Java、Python 来调用 Hive 的接口。对于 Java,Hive 提供了 jdbc 驱动,用户可以使用 Java 代码来连接 Hive 并进行一系列操作。
常见端口地点 HTTP服务器,默认的端口号为80/tcp(木马Executor开放此端口); HTTPS(securely transferring web pages)服务器,默认的端口号为443/tcp 443/udp; Telnet(不安全的文本传送),默认端口号为23/tcp(木马Tiny Telnet Server所开放的端口); FTP,默认的端口号为21/tcp(木马Doly Trojan、Fore、Invisible FTP、WebEx、WinCrash和Blade Runner所开放的端口); TFTP(Trivial File Transfer Protocol ),默认的端口号为69/udp; SSH(安全登录)、SCP(文件传输)、端口重定向,默认的端口号为22/tcp; SMTP Simple Mail Transfer Protocol (E-mail),默认的端口号为25/tcp(木马Antigen、Email Password Sender、Haebu Coceda、Shtrilitz Stealth、WinPC、WinSpy都开放这个端口); POP3 Post Office Protocol (E-mail) ,默认的端口号为110/tcp; WebLogic,默认的端口号为7001; Webshpere应用程序,默认的端口号为9080; webshpere管理工具,默认的端口号为9090; JBOSS,默认的端口号为8080; TOMCAT,默认的端口号为8080; WIN2003远程登陆,默认的端口号为3389; Symantec AV/Filter for MSE ,默认端口号为 8081; Oracle 数据库,默认的端口号为1521; ORACLE EMCTL,默认的端口号为1158; Oracle XDB( XML 数据库),默认的端口号为8080; Oracle XDB FTP服务,默认的端口号为2100; MS SQL*SERVER数据库server,默认的端口号为1433/tcp 1433/udp; MS SQL*SERVER数据库monitor,默认的端口号为1434/tcp 1434/udp; QQ,默认的端口号为1080/udp
Hive 中集成了 Thrift 服务。Thrift 是 Facebook 开发的一个软件框架,它用来进行可扩展且跨语言的服务的开发。Hive 的 HiveServer2 就是基于 Thrift 的,所以能让不同的语言如 Java、Python 来调用 Hive 的接口。 本节将演示如何使用 Python 代码来连接 HiveServer2。
desktop default_hdfs_superuser hadoop HDFS管理用户
hdp 2.4 对应的hive版本是1.2.1如果是hdp 2.4 以及以下的版本
我们在启动hiveserver2服务以后,会发现光标静止不动,这不是执行完了的标志,是等待在等待,我们可以通过下图看出来:
了解Hive的都知道Hive有三种使用方式——CLI命令行,HWI(hie web interface)浏览器 以及 Thrift客户端连接方式。 为了体验下HWI模式,特意查询了多方的资料,都没
SecondaryNameNode HTTP UI 50090 9868
Hive 中集成了 Thrift 服务。Thrift 是 Facebook 开发的一个软件框架,它用来进行可扩展且跨语言的服务的开发。Hive 的 HiveServer2 就是基于 Thrift 的,所以能让不同的语言如 Java、Python 来调用 Hive 的接口。对于 Java,Hive 提供了 jdbc 驱动,用户可以使用 Java 代码来连接 Hive 并进行一系列操作。 本节将演示如何使用 Java 代码来连接 HiveServer2
.colspan{ background:#f4f4f4; font-weight: bold;}
因为写 ambari 相关的文章比较多,所以有很多使用 ambari 的朋友加我好友,发现有很多初学者都会卡在一个地方,就是安装依赖 mysql 的服务会提示:MYSQL Connection: Error ,像安装 hive、oozie、ranger 等等服务都会遇到这个问题。
Hadoop 的概念可追溯到 2003,2004 Google2篇论文(老版三辆马车),2011年发布1.0版本,2012年发布稳定版。Hadoop 在2.0版本之前组件主要是 HDFS跟MapReduce。
Apache Zeppelin是一个让交互式数据分析变得可行的基于网页的开源框架。Zeppelin提供了数据分析、数据可视化等功能。
在 写入数据到Hive表(命令行) 这篇文章中,我们通过命令行的方式和hive进行了交互。但在通常情况下,是通过编程的方式来操作Hive,Hive提供了JDBC和ODBC接口,因为公司的数据处理程序是使用.net开发并运行在windows server上的,因此这篇文章将介绍如何通过ODBC来访问Hive。
最近打算出一个系列,介绍Dubbo的使用。 ---- 分布式应用现在已经越来越广泛,Spring Could也是一个不错的一站式解决方案,不过据我了解国内目前貌似使用阿里Dubbo的公司比较多,一方面这个框架也确实很OK,另一方面可能也是因为Dubbo的中文文档比较全的缘故,据Dubbo官网上的消息,阿里已经重新开始了对Dubbo的维护,这也算是使用Dubbo的互联网公司的福音了吧。OK,废话不多说,今天我们就先来看看如何在Linux上安装zookeeper。 ---- 了解过Dubbo的小伙伴都知道,Du
随着Hadoop平台的流行,越来越多的开发语言访问Hadoop平台的组件,比较常见的Java、Scala、Python、R等。在前面的多篇文章中Fayson介绍了Java和Scala访问Hadoop各个组件的方法。对于偏分析类的Python和R语言访问集群的Hive和Impala比较多。本篇文章Fayson主要介绍如何使用Python3访问Kerberos环境的Hive和Impala。
如果想通过 JDBC 来访问 HiveServer2,需要开启 HiveServer2 服务,具体请参阅 如何启动HiveServer2。
本篇演示使用Kettle操作Hadoop上的数据。首先概要介绍Kettle对大数据的支持,然后用示例说明Kettle如何连接Hadoop,如何导入导出Hadoop集群上的数据,如何用Kettle执行Hive的HiveQL语句,还会用一个典型的MapReduce转换,说明Kettle在实际应用中是怎样利用Hadoop分布式计算框架的。本篇最后介绍如何在Kettle中提交Spark作业。
特别说明:该专栏文章均来源自微信公众号《大数据实战演练》,欢迎关注!
–输入以下命令:SHOWVARIABLESWHEREVARIABLE_NAME=’port’就可以查看当前连接的端口号,–例如:mysql>SHOWVARIABLESWHEREVARIABLE_NAME=’port’;
在开启了Sentry的CDH集群中,Hive或Impala的操作会受Sentry的管理,不同的操作需要不同的权限。例如,要在Hive中执行ALTER DATABASE命令,用户需要拥有SERVER或DATABASE的ALL权限。本文是描述关于LOAD DATA的异常,我们先来看看Cloudera官网对于这一块的描述:
mysql默认端口号为3306,修改端口号方法:修改配置文件/etc/my.cnf
RHEL7修改默认端口号(默认port22)初次安装系统完毕后默认情况下系统已经启动了sshd服务当然我们也可以先进行检查:
1) 配置HDFS HttpFS和WebHDFS 如果HDFS是HA方式部署的,则只能使用HttpFS,而不能用WebHDFS。 2) 安装依赖: apr-iconv-1.2.1 confuse-3.0 apr-util-1.5.4 libpng-1.6.26 apr-1.5.2 expat-2.2.0 pcre-8.38 libxml2-devel libxslt-devel sqlite-devel 。。。。。。 3) 编译安装Hue 解压Hue安装包,然后执行 make install PREFIX=/usr/local 进行安装! 可以考虑修改下Makefile.vars.priv中的INSTALL_DIR值为$(PREFIX),而不是默认的$(PREFIX)/hue, 这样改为执行: make install PREFIX=/usr/local/hue-3.11.0 带上版本号是个好习惯,安装好后再建一个软链接,如:ln -s /usr/local/hue-3.11.0 /usr/local/hue。 编译安装过程中最常遇到的是缺乏依赖库,只需要按提示进行补充然后重复继续即可。 4) 修改desktop/conf/hue.ini A) [desktop] I) 为secret_key指定一个值,如ABC123,可以不指定,但Hue Web将不能保持会话。 II) 修改http_port为Web端口,如80或8080等。 III) 建议time_zone为北京时区Asia/Shanghai B ) [[hdfs_clusters]] I) 修改fs_defaultfs的值为core-site.xml中的fs.defaultFS的值 II) logical_name值HDFS集群名 III) webhdfs_url值为http://$host:14000/webhdfs/v1,其中“$host”值需为提供HttpFS服务的IP或主机名 IV) 修改hadoop_conf_dir的值为hadoop配置目录路径 C) [[yarn_clusters]] I) 修改resourcemanager_host值为主ResourceManager的IP地址(默认为8032端口所在地址), 注意不能为备ResourceManager的IP,原因是备ResourceManager不会打开端口8032。 II) 修改logical_name值为集群名。 III) 修改resourcemanager_api_url的值,将localhost替换成ResourceManager的8088端口地址。 D) [hbase] I) 修改hbase_conf_dir为HBase的配置目录路径 II) 修改thrift_transport为HBase Thrift2 Server采用的Transport,两者必须一致。 III) 注意截止hue-3.11.0版本,只支持HBase ThriftServer,而不支持HBase Thrift2Server 因此hbase_clusters的值要配置指向ThriftServer,其中Cluster可以为其它自定义值,只是为在Web上显示, Cluster后面的值必须为HBase ThriftServer的服务地址和端口。 如果需要同时运行HBase ThriftServer和HBase Thrift2Server,请为两者指定不同的服务端口和信息端口。 E) [beeswax] 修改hive_conf_dir为Hive的配置目录路径。 5) 启动Hue 进入Hue的build/env/bin目录,然后执行supervisor即可启动Hue服务。 6) 打开Web 假设Hue安装在192.168.1.22,服务端口号为8080,则只需要在浏览器中输入:http://192.168.1.22:8080即可进入Hue Web界面。 如果是第一次运行,则必须先创建好管理员帐号才能进入。 如果遇到错误,则可以检查Hue的错误日志文件error.log来了解是什么错误。 Hue ERROR日志: 1) Failed to obtain user group information: org.apache.hadoop.security.authorize.AuthorizationException is not allowed to impersonate (error 403) 一般是因为core-site.xml或httpfs-site.xml没配置正确。 /////////////////////
记忆宫殿如何运用到生活中,比如用来记忆编程语言。那么就先要找到地点,即宫殿 让每一个地点存放一部分知识内容。比如自己熟悉的卧室,或者院子,能够清楚的记忆 起来这条路线上的布置和东西,然后找出一些有特征的容器用来与知识绑定。例如将默认端口号 分为三类:5位数字一类,4位数字一类,4位数字又划分成大于开头第一位数字大于5的和不大于5的
在linux操作时,经常要查看运行的项目的进程和端口号,在这里总结了以下常用到的相关命令:
— 输入以下命令:SHOW VARIABLES WHERE VARIABLE_NAME=’port’就可以查看当前连接的端口号,– 例如:mysql> SHOW VARIABLES WHERE VARIABLE_NAME=’port’;
1、Oozie的简单介绍: 1、Oozie是一个工作流引擎服务器,用于运行hadoop map/reduce和hive等任务工作流,同时Oozie还是一个Java web程序,运行在Java Servlet容器中,如Tomcat中。Oozie以action为基本任务单元,可以将多个action构成一个DAG图,(有向五环图Direct Acyclic Graph)的模式进行运行。Oozie工作流通过HPDL(一种通过XML自定义处理的语言)来构造Oozie的工作流。一个Oozie服务器主要包括四个服务:Oo
端口号标识的是一个主机上进行通信的不同的应用程序,通过IP+PORT,便能够确认全网唯一一个进程。
本文通过图文并茂的形式给大家介绍了Windows10系统下查看mysql的端口号并修改的方法,非常不错,具有一定的参考借鉴价值,需要的朋友参考下吧
--1 端口是否占用 netstat -apn | grep 1521 netstat -ano|grep 1521 netstat -lnp|grep 1521 --windows netstat -ano | findstr "1521" tasklist | findstr "3572"
1、环境准备 支持操作系统: Linux or Mac OS X Java 8, 64-bit Python 2.4+
Mac地址(Media Access Control Address)和IP地址(Internet Protocol Address)是计算机网络中两个不同的标识符,用于在网络中唯一标识设备。
📷 一、Hadoop入门 1、常用端口号 hadoop3.x HDFS NameNode 内部通常端口:8020/9000/9820 HDFS NameNode 对用户的查询端口:9870 Yarn查看任务运行情况的:8088 历史服务器:19888 hadoop2.x HDFS NameNode 内部通常端口:8020/9000 HDFS NameNode 对用户的查询端口:50070 Yarn查看任务运行情况的:8088 历史服务器:19888 2、常用的
Fayson在前面的文章介绍了如何为CDH集群启用Kerberos,在集群启用Kerberos后,会对现有环境的部分代码做改造,有些人觉得使用起来不方便,想取消Kerberos。本篇文章Fayson主要介绍如何禁用CDH集群的Kerberos及禁用后对各组件服务的测试。
前提:所有cdh相关安装文件均放在master节点(cdh节点)的/root/cdh目录下
日常的大数据使用中经常是在服务器命名行中进行操作,可视化功能仅仅依靠着各个组件自带的网页进行,那么有没有一个可以结合大家能在一个网页上的管理工具呢?答案是肯定的,今天就和大家一起来探索大数据管理工具H
该文介绍了如何使用HiveServer2和HiveServer1来连接Hive数据库。其中,HiveServer2是Hive 2.0版本后引入的,提供了多租户支持、认证和授权、以及基于Zookeeper的动态服务发现机制。而HiveServer1是Hive 1.x版本中的Server组件,使用Java编写的Thrift API来提供Hive功能。在配置HiveServer2时,需要配置HiveServer2的地址、端口、Thrift协议、以及Zookeeper集群的信息。通过HiveServer2,可以实现多租户、资源隔离、访问控制、日志审计等功能。在安全性方面,HiveServer2提供了用户、角色、数据库和表级别的访问控制,并且支持SSL/TLS和Kerberos安全协议。在性能方面,HiveServer2采用了分桶表和列存存储,可以大幅提高查询性能。此外,HiveServer2还支持通过插件来扩展功能,例如支持自定义函数、存储格式、数据类型等。总之,HiveServer2提供了更加安全、高效、易用的数据库服务,适用于各种规模的企业应用。
登录mysql,使用命令showglobalvariableslike’port’;查看端口号修改端口在配置文件my.ini,修改后重新启动.[mysqld]port=3506
Fayson在前面的文章也介绍了几款SQL客户端工具用来访问CDH集群的Hive和Impala,本篇文章Fayson再介绍一款Oracle的SQL客户端工具SQL Developer,使用该工具访问Kerberos环境下的Hive。
ssh服务器, 使用22端口 ftp服务器, 使用21端口 telnet服务器,使用23端口 http服务器, 使用80端口 https服务器, 使用443端口
如下,我以3306为例,netstat -anp |grep 3306(此处备注下,我是以普通用户操作,故加上了sudo,如果是以root用户操作,不用加sudo即可查看),如下图1:
0–1023:http,ssh,ftp,telnet等一些协议端口号都是固定的,对于操作系统来说是不能对其进行分配的
0--1023:http,ssh,ftp,telnet等一些协议端口号都是固定的,对于操作系统来说是不能对其进行分配的
二、关闭端口号:iptables -A INPUT -p tcp --drop 端口号-j DROP
领取专属 10元无门槛券
手把手带您无忧上云