博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
TensorFlow 白皮书笔记
阅读量:3897 次
发布时间:2019-05-23

本文共 1075 字,大约阅读时间需要 3 分钟。

TensorFlow 从名称上看就是两个部分——张量 tensor 和流 flow。张量 就是矩阵概念的推广,其表示更多维度的矩阵。而计算流是一种抽象过程,在如今的深度学习领域,这种一层层地计算可以很形象地看做是张量在计算模型上的流动。而这里的流可以看做是更加一般的计算过程,在使用TensorFlow之前,有必要了解如下几个概念:

  1. 计算是用图的形式表示的。

  2. Sessions是执行的入口,类似于SparkContext。

  3. 数据是用tensor表示的。

  4. Variables用来表示可变状态,比如模型参数。

  5. 使用feeds和fetches从运算节点输入和输出数据。

    计算图是通过Session提交,一个Session决定图中的运算该到那个设备上去计算,比如是选CPU还是CPU。

TensorFlow计算框架要求所有的计算都表示成图,节点在图中被称为运算op(operation简称)。一个运算可以获得零个或者多个Tensors,经过计算,可以产生零个或者多个Tensors。一个Tensor是一个多维数组,举个例子,可以把一批图像数据表示成一个4维浮点数组[batch, height, width, channels]

引言:
DistBelief ——第一代的可扩展分布式训练和推断系统
TensorFlow——第二代大规模机器学习模型的实现和部署的系统

TensorFlow 的特点:

使用图 (graph) 来表示计算任务.,

在被称之为 会话 (Session) 的上下文 (context) 中执行图,图中的节点被称之为 op (operation 的缩写)
使用 tensor 表示数据.
通过 变量 (Variable) 维护状态.
使用 feed 和 fetch 可以为任意的操作(arbitrary operation) 赋值或者从其中获取数据.
会话:会话接口支持外部(external)方法来提升当前由包含额外节点和边的会话的图(当会话创建时初始的图是空的,大多数 TensorFlow 的使用都是针对一个图启动一个会话,然后执行整个图或者通过 Run 调用来执行分离的子图数千或者数百万次,一个 TensorFlow 图描述了计算的过程. 为了进行计算, 图必须在 会话 里被启动. 会话 将图的 op 分发到诸如 CPU 或 GPU 之类的 设备 上, 同时提供执行 op 的方法. 这些方法执行后, 将产生的 tensor 返回. 在 Python 语言中, 返回的 tensor 是 numpy ndarray 对象;

转载地址:http://llyen.baihongyu.com/

你可能感兴趣的文章
[struts2]s2-013 漏洞复现
查看>>
[struts2]s2-001
查看>>
一道题讲懂SQL盲注 / [第一章 web入门]SQL注入-2
查看>>
ubuntu server搭建python+selenium
查看>>
easy_sql
查看>>
班委考评怎么玩?
查看>>
震惊!PC端QQ也能防撤回?
查看>>
cmake入门那些坑
查看>>
git常用
查看>>
基础算法第4天_skiplist_跳表介绍
查看>>
重学C++之路_#1_概述_总体介绍
查看>>
重学C++之路_#1_基础用法
查看>>
重学C++之路_#1_异常处理
查看>>
C/C++指针回顾
查看>>
算法之排序--插入排序O(n**2)
查看>>
算法之排序--希尔排序
查看>>
转:C++ NULL二义性问题,C++11引入nullptr原因
查看>>
C神奇国度--Branchless code--Bit Twiddling Hacks
查看>>
linux那些锁、无锁操作
查看>>
javascript深入浅出图解作用域链和闭包
查看>>