小编给大家分享一下tensorflow如何动态获取BatchSzie大小,希望大家阅读完这篇文章后大所收获,下面让我们一起去探讨方法吧!
我就废话不多说了,大家还是直接看代码吧~
import tensorflow as tf import sys with tf.variable_scope('ha'): a1 = tf.get_variable('a', shape=[], dtype=tf.int32) with tf.variable_scope('haha'): a2 = tf.get_variable('a', shape=[], dtype=tf.int32) with tf.variable_scope('hahaha'): a3 = tf.get_variable('a', shape=[], dtype=tf.int32) with tf.variable_scope('ha', reuse=True): # 不会创建新的变量 a4 = tf.get_variable('a', shape=[], dtype=tf.int32) sum = a1 + a2 + a3 + a4 fts_s = tf.placeholder(tf.float32, shape=(None, 100), name='fts_s') b = tf.zeros(shape=(tf.shape(fts_s)[0], tf.shape(fts_s)[1])) concat = tf.concat(axis=1, values=[fts_s, b]) init_op = tf.global_variables_initializer() with tf.Session() as sess: sess.run(init_op) for var in tf.global_variables(): print var.name import numpy as np ft_sample = np.ones((10, 100)) con_value = sess.run([concat], feed_dict={fts_s: ft_sample}) print con_value[0].shape
results:
ha/a:0
ha/haha/a:0
ha/haha/hahaha/a:0
(10, 200)
小总结:
1: 对于未知的shape, 最常用的就是batch-size 通常是 None 代替, 那么在代码中需要用到实际数据的batch size的时候应该怎么做呢?
可以传一个tensor类型, tf.shape(Name) 返回一个tensor 类型的数据, 然后取batchsize 所在的维度即可. 这样就能根据具体的数据去获取batch size的大小
2: 对于变量命名, 要善于用 variable_scope 来规范化命名, 以及 reuse 参数可以控制共享变量
补充知识:tensorflow RNN 使用动态的batch_size
在使用tensorflow实现RNN模型时,需要初始化隐藏状态 如下:
lstm_cell_1 = [tf.nn.rnn_cell.DropoutWrapper(tf.nn.rnn_cell.BasicLSTMCell(HIDDEN_SIZE),output_keep_prob=dropout_keep_prob) for _ in range(NUM_LAYERS)] cell_1 = tf.nn.rnn_cell.MultiRNNCell(lstm_cell_1) self.init_state_1 = cell_1.zero_state(self.batch_size,tf.float32)
如果我们直接使用超参数batch_size初始化 在使用模型预测的结果时会很麻烦。我们可以使用动态的batch_size,就是将batch_size作为一个placeholder,在运行时,将batch_size作为输入输入就可以实现根据数据量的大小使用不同的batch_size。
代码实现如下:
self.batch_size = tf.placeholder(tf.int32,[],name='batch_size')
self.state = cell.zero_state(self.batch_size,tf.float32)
看完了这篇文章,相信你对tensorflow如何动态获取BatchSzie大小有了一定的了解,想了解更多相关知识,欢迎关注亿速云行业资讯频道,感谢各位的阅读!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。