本文共 1075 字,大约阅读时间需要 3 分钟。
TensorFlow 从名称上看就是两个部分——张量 tensor 和流 flow。张量 就是矩阵概念的推广,其表示更多维度的矩阵。而计算流是一种抽象过程,在如今的深度学习领域,这种一层层地计算可以很形象地看做是张量在计算模型上的流动。而这里的流可以看做是更加一般的计算过程,在使用TensorFlow之前,有必要了解如下几个概念:
计算是用图的形式表示的。
Sessions是执行的入口,类似于SparkContext。
数据是用tensor表示的。
Variables用来表示可变状态,比如模型参数。
使用feeds和fetches从运算节点输入和输出数据。
计算图是通过Session提交,一个Session决定图中的运算该到那个设备上去计算,比如是选CPU还是CPU。TensorFlow计算框架要求所有的计算都表示成图,节点在图中被称为运算op(operation简称)。一个运算可以获得零个或者多个Tensors,经过计算,可以产生零个或者多个Tensors。一个Tensor是一个多维数组,举个例子,可以把一批图像数据表示成一个4维浮点数组[batch, height, width, channels]
引言: DistBelief ——第一代的可扩展分布式训练和推断系统 TensorFlow——第二代大规模机器学习模型的实现和部署的系统TensorFlow 的特点:
使用图 (graph) 来表示计算任务.,
在被称之为 会话 (Session) 的上下文 (context) 中执行图,图中的节点被称之为 op (operation 的缩写) 使用 tensor 表示数据. 通过 变量 (Variable) 维护状态. 使用 feed 和 fetch 可以为任意的操作(arbitrary operation) 赋值或者从其中获取数据. 会话:会话接口支持外部(external)方法来提升当前由包含额外节点和边的会话的图(当会话创建时初始的图是空的,大多数 TensorFlow 的使用都是针对一个图启动一个会话,然后执行整个图或者通过 Run 调用来执行分离的子图数千或者数百万次,一个 TensorFlow 图描述了计算的过程. 为了进行计算, 图必须在 会话 里被启动. 会话 将图的 op 分发到诸如 CPU 或 GPU 之类的 设备 上, 同时提供执行 op 的方法. 这些方法执行后, 将产生的 tensor 返回. 在 Python 语言中, 返回的 tensor 是 numpy ndarray 对象;转载地址:http://llyen.baihongyu.com/