调优哪家强——tensorflow命令行参数

深度学习神经网络往往有过多的Hyperparameter需要调优,优化算法、学习率、卷积核尺寸等很多参数都需要不断调整,使用命令行参数是非常方便的。有两种实现方式,一是利用python的argparse包,二是调用tensorflow自带的app.flags实现。

利用python的argparse包

argparse介绍及基本使用:

http://www.jianshu.com/p/b8b09084bd1a

下面代码用argparse实现了命令行参数的输入。

import argparse
import sys
parser = argparse.ArgumentParser()
parser.add_argument('--fake_data', nargs='?', const=True, type=bool,                       
default=False,                       
help='If true, uses fake data for unit testing.')
parser.add_argument('--max_steps', type=int, default=1000,                       
help='Number of steps to run trainer.')
parser.add_argument('--learning_rate', type=float, default=0.001,                       
help='Initial learning rate')
parser.add_argument('--dropout', type=float, default=0.9,                       
help='Keep probability for training dropout.')
parser.add_argument('--data_dir', type=str, default='/tmp/tensorflow/mnist/input_data',                       help='Directory for storing input data') parser.add_argument('--log_dir', type=str, default='/tmp/tensorflow/mnist/logs/mnist_with_summaries',                       
help='Summaries log directory') FLAGS, unparsed = parser.parse_known_args() tf.app.run(main=main, argv=[sys.argv[0]] + unparsed)

通过调用python的argparse包,调用函数parser.parse_known_args()解析命令行参数。代码运行后得到的FLAGS是一个结构体,内部参数分别为:

FLAGS.data_dir
Out[5]: '/tmp/tensorflow/mnist/input_data'
 FLAGS.fake_data Out[6]: False  FLAGS.max_steps
Out[7]: 1000
 FLAGS.learning_rate
Out[8]: 0.001
 FLAGS.dropout
Out[9]: 0.9
 FLAGS.data_dir
Out[10]: '/tmp/tensorflow/mnist/input_data'
 FLAGS.log_dir
Out[11]: '/tmp/tensorflow/mnist/logs/mnist_with_summaries'

利用tf.app.flags组件

首先需要定义一个tf.app.flags对象,调用自带的DEFINE_string, DEFINE_boolean, DEFINE_integer, DEFINE_float设置不同类型的命令行参数及其默认值。当然,也可以在终端用命令行参数修改这些默认值。

# Define hyperparameters
flags = tf.app.flags
FLAGS = flags.FLAGS
flags.DEFINE_boolean("enable_colored_log", False, "Enable colored log")                     
"The glob pattern of train TFRecords files")
flags.DEFINE_string("validate_tfrecords_file",                     
"./data/a8a/a8a_test.libsvm.tfrecords",     
"The glob pattern of validate TFRecords files")
flags.DEFINE_integer("label_size", 2, "Number of label size")
flags.DEFINE_float("learning_rate", 0.01, "The learning rate")
 def main():    
 # Get hyperparameters     
if FLAGS.enable_colored_log:         
import coloredlogs         
coloredlogs.install()     
logging.basicConfig(level=logging.INFO)     
FEATURE_SIZE = FLAGS.feature_size     
LABEL_SIZE = FLAGS.label_size       
...   
return 0
if __name__ == ‘__main__’:     main()

这段代码采用的是tensorflow库中自带的tf.app.flags模块实现命令行参数的解析。如果用终端运行tf程序,用上述两种方式都可以,如果用spyder之类的工具,那么只有第一种方式有用,第二种方式会报错。

其中有个tf.app.flags组件,还有个tf.app.run()函数。官网帮助文件是这么说的:

flags module: Implementation of the flags interface.
run(...): Runs the program with an optional 'main' function and 'argv' list.

tf.app.run的源代码:

1."""Generic entry point script."""   
2.from __future__ import absolute_import   
3.from __future__ import division   
4.from __future__ import print_function   
5.   
6.import sys   
7.   
8.from tensorflow.python.platform import flags   
9.   
10.   
11.def run(main=None):   
12.  f = flags.FLAGS   
13.  f._parse_flags()   
14.  main = main or sys.modules['__main__'].main   
15.  sys.exit(main(sys.argv))

也就是处理flag解析,然后执行main函数。

用shell脚本实现训练代码的执行

在终端执行python代码,首先需要在代码文件开头写入shebang,告诉系统环境变量如何设置,用python2还是用python3来编译这段代码。然后修改代码权限为可执行,用 ./python_code.py 就可以执行。同理,这段代码也可以用shell脚本来实现。创建.sh文件,运行python_code.py并设置参数max_steps=100

python python_code.py --max_steps 100

原文发布于微信公众号 - 人工智能LeadAI(atleadai)

原文发表时间:2017-10-31

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏FreeBuf

WIN10下ROP初体验

* 本文原创作者:与非门salome,本文属FreeBuf原创奖励计划,未经许可禁止转载 首先,在windows10下编写一个具有一定安全机制但又存在漏...

2049
来自专栏Seebug漏洞平台

CVE-2017-16943 Exim UAF漏洞分析--后续

作者:Hcamael@知道创宇404实验室 上一篇分析出来后,经过@orange的提点,得知了meh公布的PoC是需要特殊配置才能触发,所以我上一篇分析文章最后...

2976
来自专栏三木的博客

QEMU 2: 参数解析

#一、使用gdb分析QEMU代码# 使用gdb不仅可以很好地调试代码,也可以利用它来动态地分析代码。使用gdb调试QEMU需要做一些准备工作: 1, 编译QEM...

18610
来自专栏重庆的技术分享区

PySpark简介

Apache Spark是一个大数据处理引擎,与MapReduce相比具有多个优势。通过删除Hadoop中的大部分样板代码,Spark提供了更大的简单性。此外,...

892
来自专栏网络

ASLRay:一个可以绕过ASLR的工具

ASLR(Address Space Layout Randomization,即地址空间格局随机化)是指利用随机方式配置数据地址,一般现代系统中都加设这一机制...

19610
来自专栏祝威廉

如何基于SDL+TensorFlow/SK-Learn开发NLP程序

确保安装了python 2.7 ,强烈建议你使用Virtualenv方便python环境的管理。之后通过pip 安装pyspark

483
来自专栏LEo的网络日志

python技巧分享(十三)

1223
来自专栏闵开慧

spark出现GC overhead limit exceeded和java heap space

    spark执行任务时出现java.lang.OutOfMemoryError: GC overhead limit exceeded和java.lang...

3459
来自专栏JAVA同学会

Zookeeper应用之——选举(Election)

请注意,此篇文章并不是介绍Zookeeper集群内部Leader的选举机制,而是应用程序使用Zookeeper作为选举。

452
来自专栏YG小书屋

ES维护常见问题(持续更新)

3755

扫描关注云+社区