首页
学习
活动
专区
工具
TVP
发布

有困难要上,没有困难创造困难也要上!

专栏成员
272
文章
405386
阅读量
37
订阅数
语音识别语言模型和拼音字典文件制作
接我前面的文章,下载 pocketsphinx 和 中文模型文件。 由于模型文件格式有一些要求,所以建议对模型文件的编辑都在Linux上完成。 准备中文语言文件 创建一个文本文件 my.txt,内容如下: 测试 直走 左转 右转 后退 开火 靠喽 生成语音模型文件和字典文件 访问 http://www.speech.cs.cmu.edu/tools/lmtool-new.html 页面,上传 my.txt 文件,然后使用“COMPILE KNOWLEDGE BASE”来生成模型文件。 在生成的列表页面,下
kongxx
2019-01-07
1.1K0
编译Kettle的PDI DB Dialog模块失败
检查了一下下面的地址,发现其下没有小写i的目录,只有大写I的目录,估计是这几天第三方包有改过名字所导致的。
kongxx
2018-12-12
1.5K0
制作可自运行的jar可执行文件
今天看到有人把Java的jar包制作成一个可执行文件,于是乎我也试了一把,确实也挺简单的,记录一下。
kongxx
2018-11-09
1.5K0
Kettle 7.1 连接Hadoop集群
在Tools -> Hadoop Distribution 中选择 “HortonWorks HDP 2.5.x”。
kongxx
2018-10-11
1.9K0
Kettle 7.1 连接HBase数据表
在Tools -> Hadoop Distribution 中选择 “HortonWorks HDP 2.5.x”。
kongxx
2018-10-11
2K0
Hortonworks中修改Hive使用postgresql数据库
在Hive -> Configs -> Advanced中,将数据库改为使用已存在的postgresql数据库,然后修改数据库用户,密码和数据库名称。
kongxx
2018-10-11
1.1K0
Linux设置Oracle开机自启动
编辑 /etc/oratab 文件 修改其中的路径,并且将最后的 “N” 改为 “Y”,如下: orcl:/home/oracle/app/oracle/product/12.2.0/dbhome_1:Y 创建/修改 /etc/systemd/system/oracle-rdbms.service 文件 文件内容如下(注意其中文件路径): # /etc/systemd/system/oracle-rdbms.service # Invoking Oracle scripts to start/shutdow
kongxx
2018-09-26
5.9K0
Oracle12c创建用户
首先以Oracle管理员用户登录系统,并使用sys用户登录Oracle $ sudo su - oracle $ sqlplus /nosql SQL> conn sys as sysdba: Enter password: Connected. 创建临时表空间 # 查看临时表空间 SQL> select name from v$tempfile; # 创建临时表空间 SQL> create temporary tablespace test_temp tempfile '/home/oracle/ap
kongxx
2018-09-26
1.7K0
Linux下启动Oracle服务
在 Linux下启动Oracle服务需要下面两步: 启动lsnrctl监听。 启动数据库实例。 启动lsnrctl监听 首先以oracle用户登录系统 进入数据库目录 $ cd /home/oracle/app/oracle/product/12.2.0/dbhome_1/bin 查看监听状态 $ ./lsnrctl status LSNRCTL for Linux: Version 12.2.0.1.0 - Production on 22-AUG-2018 20:28:21 Copyright (c
kongxx
2018-09-26
7.6K0
Jenkins运行恢复的Job出错
今天由于误操作,删除了一个Job,在我重新恢复这个Job之后,重新运行的时候报如下错误
kongxx
2018-08-16
1.4K0
Python2运行时查看线程信息
今天遇见一个 Python 问题,在测试环境中发现用 Python2.7.10 写的程序有时候会慢慢变慢,在使用 "pstack <pid>" 查看进程的时候发现起了很多的线程,并且越来越多,这肯定是程序有问题,但是使用 pstack 命令看不到具体每个线程是在做什么,于是我就想是不是可以在不影响进程运行的情况下随时查看每个线程都在干什么。 于是乎,我大致想了一下 可以使用 signal 模块在处理程序接收 kill 信号,这样我就可以使用 “kill -3 <pid>” 来给进程发信号,然后输出线程信息而
kongxx
2018-05-14
8820
Python运行时动态查看进程内部信息
接前两篇“运行时查看线程信息”的博客,我在想,既然我可以随时打印线程信息,那么我是不是可以随时打印进程内部的其它信息呢?比如,实时查看一些对象属性等,这样可以帮助我们在不重新启动应用程序的情况下就可以观察进程的执行状态。(这里暂时不考虑那些使用第三方库或工具的情况) 根据这个想法,查看了一下python的动态加载模块的方法,感觉这个想法还是比较靠谱,应该可以实现,所以动手写了个小测试验证了一把。(这里说明一下,只是验证性的,生产环境要使用的话,还是有不少问题需要考虑的。) 下面就是测试时考虑要做到的 还是使
kongxx
2018-05-14
2K0
Docker Error: Error creating cluster component: error while loading TLS Certificate in /var/lib/dock
今天我的Docker宿主机重启了一次后,Docker daemon竟然起不来了,查看了一下 /var/log/messages 中的日志,里面竟然有错误 Feb 8 09:03:53 bd2 dockerd-current: time="2018-02-08T09:03:53.926690813+08:00" level=fatal msg="Error creating cluster component: error while loading TLS Certificate in /var/lib/
kongxx
2018-05-14
1.7K0
Cloud Foundry 运行bosh create-env时报错: TLS handshake timeout
在Linux上使用Bosh创建Director的时候报错,如下: bosh create-env bosh-deployment/bosh.yml \ --state state.json \ --vars-store ./creds.yml \ -o bosh-deployment/virtualbox/cpi.yml \ -o bosh-deployment/virtualbox/outbound-network.yml \ -o bosh-deployment/bosh-lite.
kongxx
2018-05-14
8810
Hadoop3-伪分布式模式安装
今天无意间看到Hadoop3去年年底就release了,今天就准备装个环境看看。 安装配置 首先从下面的地址下载安装包 http://hadoop.apache.org/releases.html 这里我下载的是hadoop-3.0.0.tar.gz包,解压安装。 $ tar zxvf hadoop-3.0.0.tar.gz $ cd hadoop-3.0.0/ 编辑etc/hadoop/hadoop-env.sh文件,设置JAVA_HOME环境变量, export JAVA_HOME=/opt/jdk8
kongxx
2018-05-14
1.1K0
CentOS7安装Caffe
安装依赖包 sudo yum install protobuf-devel leveldb-devel snappy-devel opencv-devel boost-devel hdf5-devel sudo yum install gflags-devel glog-devel lmdb-devel sudo yum install openblas-devel 安装caffe wget -c https://github.com/BVLC/caffe/archive/1.0.tar.gz tar zx
kongxx
2018-05-14
1.1K0
Tensorflow限制CPU个数
安装 这里使用 Pip 来安装 Tensorflow CPU 版 $ sudo pip install https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.5.0-cp27-none-linux_x86_64.whl 安装完成后运行库中自带的手写识别例子来检查安装是否成功 $ cd /usr/lib/python2.7/site-packages/tensorflow/models/image/mnist $ python con
kongxx
2018-05-14
2.2K0
Caffe训练模型时core dump
在安装好的 caffe 环境里训练模型时报错 $ cd <caffe根目录> $ ./build/tools/caffe train -solver examples/mnist/lenet_solver.prototxt ... I0111 15:27:57.013530 20030 layer_factory.hpp:77] Creating layer mnist F0111 15:27:57.013805 20030 db_lmdb.hpp:15] Check failed: mdb_status
kongxx
2018-05-14
1.2K0
Apache-Ignite入门实战之二 - 事务处理
前一篇文章介绍了怎样安装和使用 Ignite 的缓存。今天说说 Ignite 的缓存事务。 在我们平时的开发中经常会有这么一种场景,两个或多个线程同时在操作一个缓存的数据,此时我们希望要么这一批操作都成功,要么都失败。这种场景在数关系型据库中很常见,就是通过数据库的事务处理来实现的。下面我们就看看 Ignite 怎样实现这种事务处理。 下面先看一个测试程序。 package my.ignitestudy.datagrid; import org.apache.ignite.Ignite; import o
kongxx
2018-05-14
1.3K0
CentOS5.5使用yum时报错Error: Cannot find a valid baseurl for repo: addons
今天需要用CentOS5.5测试个东西,但是发现在运行yum命令的时候出现下面的错误 Loaded plugins: allowdowngrade, downloadonly, fastestmirror Determining fastest mirrors Error: Cannot find a valid baseurl for repo: addons YumRepo Error: All mirror URLs are not using ftp, http[s] or file. Eg. I
kongxx
2018-05-14
1K0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档