技术交流QQ群【JAVA,C,.NET,BigData,AI】:170933152 看书写程序,边看边写...
# 和TensorFlow 的计算模型相比, TensorFlow 的数据模型相对比较简单。张量使用主要 # 可以总结为两大类。 # 第一类用途是对中间计算结果的引用。当一个计算包含很多中间结果时,使用张量可 # 以大大提高代码的可读性。以下为使用张量和不使用张量记录中间结果来完成向量相加的 # 功能的代码对比。 #使用张量记录中间结果 import tensorflow as tf a=tf.constant([1.0,2.0],name="a"); b=tf.constant([2.0,3.0],name="b") result=a+b; print(result); #直接计算向量的利,这样可读性会比较差。 result=tf.constant([1.0,2.0],name="a") + tf.constant([2.0,3.0],name="b") print(result); # 从上面的样例程序可以看到, a 和b 其实就是对常量生成这个运算结果的引用,这样 # 在做加法时就可以直接使用这两个变量,而不需要再去生成这些常量。当计算的复杂度增 # 加时(比如在构建深层神经网络时〉通过张量来引用计算的中间结果可以使代码的可阅读 # 性大大提升。同时,通过张量来存储中间结果可以方便获取中间结果。比如在卷积神经网 # 络① 中,卷积层或者池化层有可能改变张量的维度,通过result.get_shape 函数来获取结果张 # 量的维度信息可以免去人工计算的麻烦。 # 使用张量的第二类情况是当计算图构造完成之后,张量可以用来获得计算结果,也就 # 是得到真实的数字。虽然张量本身没有存储具体的数字,但是通过3.3 节中介绍的会话, # 就可以得到这些具体的数字。比如在上述代码中,可以使用tf. Session().run( result )语句得到 # 计算结果。 credreamer~夹狗狮 认证博客专家 推荐算法 算法 神经网络 从事10年编程工作,工作涉及到.Net,Java,C等编程语言,爱好领域,算法,人工智能,大数据等领域, 虚心求教,一起进步,credream 创梦 是大学期间想的个词,如今一晃10多年已过....