我正在尝试通过连接:首先,我将phoenix-2.jar添加到hbase lib目录。然后重启region服务器,然后在netbeans中创建一个项目,并将phoenic-2-client.jar添加到项目的类路径中。然后将以下行添加到hbase和phoenix的hbase.site.xml中。
<property>
<name>hbase.master</name>
<value>23.201.00.100:60000</value>
<description>The host and port the HBas
我有Cloudera CDH 5.14.2集群,安装了Apache Phoenix Parcel (APACHE_PHOENIX-4.14.0-cdh5.14.2.p0.3)。 我有一个包含二级索引的表,我想使用Apache Phoenix提供的IndexTool填充这个索引。但这给了我以下错误: 19/01/02 13:58:10 INFO mapreduce.Job: The url to track the job: http://mor-master-01.triviadata.local:8088/proxy/application_1546422102410_0020/
19/0
我在hbase中有500万条记录,并试图找到记录总数,然后使用phoenix命令行得到以下错误。
Error: org.apache.phoenix.exception.PhoenixIOException: Failed to get result within timeout, timeout=60000ms (state=08000,code=101)
org.apache.phoenix.exception.PhoenixIOException: org.apache.phoenix.exception.PhoenixIOException: Failed to get result
我在hbase中有一个表(比方说T1),我在上面运行了包含6000多万行的select count(*) from T1。但是它给出了以下超时异常错误。我不能更改Phoenix的超时参数吗?
com.salesforce.phoenix.exception.PhoenixIOException: com.salesforce.phoenix.exception.PhoenixIOException: 136520ms passed since the last invocation, timeout is currently set to 60000
at com.salesforce
我使用的是Hbase版本2.0.2和phoenix V5.0.0。我在上面有一个HBase表,我们已经创建了Phoenix视图,使用以下步骤 hbase(main):007:0> create 'phownix_test','details'
hbase(main):008:0> put 'phownix_test','1','details:MAC','1234567'
Took 1.5056 seconds
hbase(main):009:0> put
我正在尝试通过spark HBase连接器加载SQL表。我能够得到表的模式 val port = s"${configuration.get(ZOOKEEPER_CLIENT_PORT, "2181")}"
val znode = s"${configuration.get(ZOOKEEPER_ZNODE_PARENT, "/hbase")}"
val zkUrl = s"${configuration.get(ZOOKEEPER_QUORUM, "localhost")}"
val ur
当我在SQuirreL SQL客户机中添加别名以使用菲尼克斯连接hbase时,这是异常日志:
Unexpected Error occurred attempting to open an SQL connection.
以下是细节:
java.util.concurrent.ExecutionException: java.lang.RuntimeException: java.sql.SQLException: java.lang.RuntimeException: java.lang.NullPointerException
at java.util.concurrent.Fut
我一直在尝试将Phoenix 4.5.2集成到我现有的hadoop集群中。
Hadoop Version : 2.7.1
HBase Version : 1.1.2
当我尝试从phoenix客户端创建表时,我得到了以下异常。但我可以从HBase控制台成功创建表。
org.apache.phoenix.exception.PhoenixIOException: SYSTEM.CATALOG
at org.apache.phoenix.util.ServerUtil.parseServerException(ServerUtil.java:108)
at org.apache.ph
我有一个运行在非Kerberos集群上的Spark (1.4.1)应用程序,我将它复制到另一个运行Kerberos的实例。该应用程序从HDFS获取数据并将其放入Phoenix。
但是,它不起作用:
ERROR ipc.AbstractRpcClient: SASL authentication failed. The most likely cause is missing or invalid credentials. Consider 'kinit'.
javax.security.sasl.SaslException: GSS initiate faile
我正在尝试使用Apache Phoenix的时间戳列筛选器。
我的表和列存在。列的类型为TIMESTAMP。
0: jdbc:phoenix:localhost:2181:/hbase> SELECT * FROM METRIC where METRIC_ID = 'process.cpu' AND METRIC_TIMESTAMP > NOW();
java.lang.NullPointerException
at org.apache.phoenix.compile.ScanRanges.getAscTimeRange(ScanRanges.java:674)
我正在开发phoenix-4.7.0 on HBase-0.98,并试图编写java源代码,以决定是否可以将菲尼克斯用作SQL-皮肤。
我将phoenix-4.7.0-HBase-0.98-client.jar设置为$CLASSPATH,它运行良好,但建立新连接需要几秒钟时间。
phoenixTest.java
import java.sql.*;
import java.util.*;
public class phoenixTest {
public static void main(String args[]) throws Exception {
Connection co
我试图通过Spark连接到菲尼克斯,在通过JDBC驱动程序打开连接时,我一直得到以下异常(为了简洁起见,下面是完整的堆栈跟踪):
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.hbase.ipc.controller.ClientRpcControllerFactory
at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
at java.net.URLClassLoader$1.run(URLClassLoader.ja