到底该选择TensorFlow还是Keras深度学习框架选型指南.doc

上传人:白大夫 文档编号:3394858 上传时间:2019-08-21 格式:DOC 页数:4 大小:22KB
返回 下载 相关 举报
到底该选择TensorFlow还是Keras深度学习框架选型指南.doc_第1页
第1页 / 共4页
亲,该文档总共4页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《到底该选择TensorFlow还是Keras深度学习框架选型指南.doc》由会员分享,可在线阅读,更多相关《到底该选择TensorFlow还是Keras深度学习框架选型指南.doc(4页珍藏版)》请在三一文库上搜索。

1、到底该选择TensorFlow还是Keras深度学习框架选型指南到底该选择TensorFlow还是Keras,是深度学习初学者经常纠结的一个问题。数据科学家Aakash Nain比较了TensorFlow和Keras,希望有助于选择合适的框架。深度学习库/框架流行度(来源:Google)深度学习无处不在,大量的深度学习库让初学者无所适从。这篇文章重点关注TensorlFlow和Keras两者之间的选择。TensorFlow是最著名的用于深度学习生产环境的框架。它有一个非常大非常棒的社区。然而,TensorFlow的使用不那么简单。另一方面,Keras是在TensorFlow基础上构建的高层AP

2、I,比TF(TensorFlow的缩写)要易用很多。既然Keras基于TensorFlow,那么两者有何区别?既然Keras对用户更友好,为什么我还需要使用TF来构建深度学习模型呢?下面一些内容将帮助你做出选择。快速开发原型如果你想快速创建、测试一个神经网络,写尽可能少的代码,那么选择Keras。花不了多少分钟,你就能用Keras创建简单或很复杂的神经网络。Model和SequentialAPI如此强大,基本上能做到你可能想要做的任何事情。让我们看一个例子吧:model = Sequential()model.add(Dense(32, activation=relu, input_dim=1

3、00)model.add(Dense(1, activation=sigmoid)modelpile(optimizer=rmsprop,loss=binary_crossentropy,metrics=accuracy)# 生成虚假数据import numpy as npdata = np.random.random(1000, 100)labels = np.random.randint(2, size=(1000, 1)# 训练模型,迭代数据(每个batch包含32个样本)model.fit(data, labels, epochs=10, batch_size=32)收工!就是这么容易

4、!没有人不喜欢Pythonic!Keras的开发设计注重用户友好,因而某种意义上它更加pythonic。模块化是Keras的另一个优雅的设计指导原则。Keras中的任何东西都可以表示为模块,用户可以根据需要将其进一步组合。弹性有时候你不想用现成的东西,想要自己定义一些东西(比如,损失函数、测度、网络层,等等)。尽管Keras 2的设计让你可以实现几乎所有你想要的东西,但是我们都知道底层的库提供了更多弹性。TF同样如此。相比Keras,TF允许你进行更多调整。功能性尽管Keras提供了创建深度学习模型一般所需的所有功能性,它还是不如TF提供得多。相比Keras,TensorFlow提供更多高级操

5、作。当你从事研究或开发特殊种类的深度学习模型时,这一点是十分便利的。下面是一些例子:线程和队列队列是一个强大的机制,可以异步地计算图中的张量。类似地,你可以使用多个线程执行同一会话,通过并行运算加速操作。下面是一个在TensorFlow中使用队列和线程的简单例子:# 创建图,等等。init_op = tf.global_variables_initializer()# 创建会话,以运行图中的操作。sess = tf.Session()# 初始化变量(比如epoch计数器)sess.run(init_op)# 开始输入入队线程。coord = tf.train.Coordinator()thre

6、ads = tf.train.start_queue_runners(sess=sess, coord=coord)try:whilenot coord.should_stop():# 运行训练步骤,等等sess.run(train_op)except tf.errors.OutOfRangeError:print(训练完毕达到epoch限制)finally:# 结束时,请求停止线程coord.request_stop()# 等待线程终止。coord.join(threads)sess.close()调试器TensorFlow有一个专门的调试器,为内部结构和正在运行的TensorFlow图的状

7、态提供了可见性。从调试器获得的洞见可以加速调试训练和推断阶段的多种bug。TensorFlow调试器截屏(来源:TensorFlow文档)控制就我的经验而言,你对神经网络的控制越多,你对神经网络在做什么的理解就更深。TF让你可以更多地控制神经网络。在TF中对权重和梯度进行操作有如神助。例如,假设你的模型有三个变量,比如w、b、step,你可以选择变量step是否可以训练。你只需写一行代码就可以办到:step = tf.Variable(1, trainable=False, dtype=tf.int32)在训练阶段,梯度可以提供大量信息。你想控制梯度?当然可以,看下面的例子:# 创建优化器op

8、timizer = GradientDescentOptimizer(learning_rate=0.1)# 为一组变量计算梯度grads_and_vars = optpute_gradients(loss, )# grads_and_vars是一个元组的列表(梯度, 变量)。# 你可以随意对梯度部分进行操作,比如,每项减1.subtracted_grads_and_vars = (gv0 - 1.0, gv1) for gv in grads_and_vars# 请求优化器应用减一后的梯度。optimizer.apply_gradients(subtracted_grads_and_vars

9、)(以上代码样例取自 CS 20SI: TensorFlow for Deep Learning Research)结论(TL;DR)除非你正从事研究性质的工作或开发某种特殊种类的神经网络,选择Keras(相信我,我是一个Keras党!)使用Keras快速构建非常复杂的模型仍然超容易。如果你想要更精细地控制你的网络,或者想要仔细查看你的网络发生了什么,那么TF是正确的选择(不过有时TF的语法会让你做噩梦的)。不过,现在TF已经集成了Keras,所以更明智的做法是使用tf.contrib.Keras创建你的网络,然后根据需要在你的网络中插入纯TensorFlow。简而言之,tf.contrib.keras+tf=你所需要的一切

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 其他


经营许可证编号:宁ICP备18001539号-1