热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

TensorFlow入门上

前置准备在阅读本文之前,请确定你已经了解了神经网络的基本结构以及前向传播、后向传播的基本原理,如果尚未了解,可以查看下文。神经网络初探​chrer.com也可以直接在我博客阅读Te

前置准备

在阅读本文之前,请确定你已经了解了神经网络的基本结构以及前向传播、后向传播的基本原理,如果尚未了解,可以查看下文。

神经网络初探chrer.com《TensorFlow入门-上》

也可以直接在我博客阅读

TensorFlow入门-上chrer.com《TensorFlow入门-上》

什么是TensorFlow?

TensorFlow是
谷歌基于DistBelief进行研发的第二代
人工智能
学习系统,其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow为张量从流图的一端流动到另一端计算过程。TensorFlow是将复杂的数据结构传输至人工智能神经网中进行分析和处理过程的系统。

TensorFlow可被用于
语音识别或
图像识别等多项机器学习和深度学习领域,对2011年开发的深度学习基础架构DistBelief进行了各方面的改进,它可在小到一部智能手机、大到数千台数据中心服务器的各种设备上运行。TensorFlow将完全开源,任何人都可以用。

安装

需要先确定哪种类型的TensorFlow:

  • 仅支持CPU运算版本:如果电脑的系统没有 NVIDIA®的GPU,那么必须安装这个版本。这个版本的TensorFlow安装非常简单(安装仅需一个命令,5到10分钟),所以即使系统中有满足要求的NVIDIA® GPU官方还是建议在学习阶段安装这个版本。
  • 支持GPU运算的版本:TensorFlow程序在GPU下运行比在CPU下运行明显快很多。如果系统中包含 NVIDIA®的GPU满足下一个小节所示的条件并且程序对性能要求很高,建议安装此版本。

我是在windows平台下安装的CPU版本的TensorFlow,建议初学者安装该版本。

1.安装Python 3.5和pip【可以通过安装Anaconda 3同时获得】;

2.设置环境变量;

3.一键安装(CPU版):

pip install --upgrade --ignore-installed tensorflow

测试

安装之后可以测试是否安装成功,可以编写以下代码(功能是进行基本的张量加法):

import tensorflow as tf
a= tf.constant([1.0,2.0],name="a")
b= tf.constant([2.0,3.0],name="b")
result = a+b
sess= tf.Session()
print(sess.run(result))

如果安装成功,会显示

[3. 5.]

基本概念介绍

TensorFlow由Tensor和Flow组成,Tensor是张量的含义,在这里可以理解为多维数组,Flow是“流”,张量像“流”一样相互流动和转化,形成计算模型。

计算图

Tensorflow是一个通过计算图的形式来表述计算的编程系统,计算图也叫数据流图,可以把计算图看做是一种有向图,Tensorflow中的每一个计算都是计算图上的一个节点,而节点之间的边描述了计算之间的依赖关系。

《TensorFlow入门-上》

TensorFlow中有一个默认的计算图,它会自动将定义的计算转化为该计算图中的节点,下面代码体现了如何查看默认计算图:

import tensorflow as tf
print(tf.get_default_graph)

下面展现如何在不同计算图上定义和使用变量:

import tensorflow as tf
g1 = tf.Graph()
with gl.as_default():
#在计算图q1中定义变量"v",并设置初始值为0.
v= tf.get variable (
"v", initializer=tf.zeros initializer (shape=[1]))
g2 = tf.Graph ()
with q2.as default ():
#在计算图q2中定义变量"v",并设置初始值为1.
v= tf.get variable (
"v", initializer=tf.ones initializer (shape=[1]))
#在计算图c1中读取变量"v"的取值。
with tf.Session(graph=g1) as sess:
tf.initialize all variables ().run()
# :#在计算图q1中,变量"v"的取值应该为0,所以下面这行会输出[0.]
with tf.variable_scope("",reuse=True):
print (sess.run (tf.get variable ("v")))
#在计算图g2中读取变量"v"的取值。
with tf. Session (graph=g2) as sess:
tf.initialize all variables ().run ()
#在计算图q2中,变量"v"的取值应该为1,所以下面这行会输出[1.]。
with tf. variable scope ("", reuse=True):
print (sess.run (tf.get variable ("y")))

张量

tensorflow中的所有数据如图片、语音等都是以张量这种数据结构的形式表示的。张量是一种组合类型的数据类型,表示为一个多维数组,通用的表示形式为 ***[T1,T2,T3,…Tn] ,其中 *T 可以是在tensorflow中指定类型的单个数字,也可以是一个矩阵。

张量的维数又叫张量的阶,是张量维数的一个数量描述。如下分别表示0维、1维、2维和3维的张量:

1 #维度为0的标量
[1,2,3] #维度为1,一维向量
[[1,2],[3,4]] #维度为2, 二维矩阵
[[[1,2],[3,4]],[[1,2],[3,4]]] #维度为3,3维空间矩阵

维度要看张量的最左边有多少个左中括号,有n个,则这个张量就是n维张量

张量有三个重要的属性——名字、维数和数据类型,如下代码:

import tensorflow as tf
# tf.constant是一个计算,这个计算的结果为一个张量,保存在变量a中。
a = tf.constant ([1.0, 2.0], name="a")
b= tf.constant ([2.0, 3.01, name="b")
result = tf.add (a, b, name="add")
print(result)
# 输出:Tensor ("add:0", shape=(2,), dtype=float32)

张量和计算图上的节点时对应的,张量可以使用“node:src_output”来表示,如上文中的“add:0”。表示计算节点add中的第一个输出(从0开始计数)

会话

TensorFlow使用计算图表示计算过程,它是依据各个操作之间的依赖关系生成的。这是一个底层的编程模型,你需要先定义数据流图,然后创建一个 TensorFlow会话以在多个本地或远程的设备上运行流图的各个部分。

构造阶段完成后, 才能启动图。启动图的第一步是创建一个 Session 对象, 如果无任何创建参数, 会话构造器将启动默认图。会话会管理TensorFlow程序运行时的所有资源。当所有计算完成之后需要关闭会话来帮助系统回收资源,否则就可能出现资源泄露的问题。

TensorFlow中使用会话的模式一般有两种:

1、需要明确调用会话生成函数和关闭会话函数。

# 创建一个会话。
sess = tf.Session()
# 使用会话得到之前计算的结果。
sess.run(...)
# 关闭会话使得本次运行中使用到的资源可以被释放。
sess.close()

例子:

import tensorflow as tf
#使用张量记录中间结果
a = tf.constant([1.0, 2.0], name="a")
b = tf.constant([2.0, 3.0], name="b")
result = a + b
# 创建一个会话。
sess = tf.Session()
# 使用会话得到之前计算的结果。
print(sess.run(result))
# 关闭会话使得本次运行中使用到的资源可以被释放。
sess.close()

输出:

[ 3. 5.]

使用这种模式时,在所有计算完成之后,需要明确调用Session.close函数来关闭会话释放资源。然而,当程序因为异常而退出时,关闭会话的函数可能就不会被执行从而导致资源泄露。

所以TensorFlow可以通过Python的上下文管理器来使用会话。

2、通过Python的上下文管理器来使用会话。

#创建一个会话,并通过Python中的上下文管理器来管理
with tf.Session() as sess:
#使用这个会话来计算关心的结果
sess.run(...)
#不再需要调用“Session.close()”函数来关闭会话,当上下文退出时会话关闭和资源释放也会自动完成。

例子:

import tensorflow as tf
#使用张量记录中间结果
a = tf.constant([1.0, 2.0], name="a")
b = tf.constant([2.0, 3.0], name="b")
result = a + b
with tf.Session() as sess:
print(sess.run(result))123456789

通过Python上下文管理器的机制,只要将所有的计算放在with的内部就可以。当上下文管理器退出时就会自动释放所有资源。这样既解决了因为异常退出时资源释放的问题,同时也解决了忘记调用Session.close函数而产生的资源泄露。

变量

TensorFlow变量(Variables)是在程序中表示共享、持久状态的最佳方式。

通过tf.Variable类操作变量。tf.Variable表示值可以被操作改变的张量。跟tf.Tensor对象不一样,tf.Variable存在于单个session.run调用的上下文之外。

在内部,tf.Variable存储一个持久张量,允许读取和修改张量的值。这些修改是跨tf.Session可见的,所以不同的工作节点可以看到相同的值tf.Variable

创建变量的最好方法是调用tf.get_variable功能。此功能要求您指定变量的名称。此名称将被其他副本用于访问相同变量,以及在检查点和导出模型时命名此变量的值。tf.get_variable还允许您重复使用先前创建的同名变量,从而可以轻松定义重复使用图层的模型。

tf.get_variable来创建一个变量,只需提供名称和形状

my_variable = tf.get_variable("my_variable", [1, 2, 3])

这将创建一个名为”my_variable”的变量,它是一个带有形状[1, 2, 3]的3维张量。这个变量默认的dtypetf.float32,其初始值将通过tf.glorot_uniform_initializer随机化。

您可以选择指定dtype和初始化程序tf.get_variable。例如:

my_int_variable = tf.get_variable("my_int_variable", [1, 2, 3], dtype=tf.int32,
initializer=tf.zeros_initializer)

TensorFlow提供了许多方便的初始化程序。或者,您可以初始化一个tf.Variable为具有tf.Tensor的值。例如:

other_variable = tf.get_variable("other_variable", dtype=tf.int32,
initializer=tf.constant([23, 42]))

请注意,当初始化器是一个tf.Tensor,你不应该指定变量的形状,因为用来初始化的张量的形状将被复用。

变量集合

因为TensorFlow程序中不连接的部分之间可能需要创建变量,所以用单一的方法来访问所有的变量是有用的。出于这个原因,TensorFlow提供 collections(集合),它们被命名为张量或其他对象的列表,例如tf.Variable实例。

默认情况下每个tf.Variable被放置在以下两个集合中:tf.GraphKeys.GLOBAL_VARIABLES—可以在多个设备上共享的变量,tf.GraphKeys.TRAINABLE_VARIABLES— TensorFlow将计算梯度的变量。

如果你不想要一个变量是可训练的,把它添加到tf.GraphKeys.LOCAL_VARIABLES集合。例如,以下代码片段演示了如何添加一个名为my_local的变量到这个集合:

my_local = tf.get_variable("my_local", shape=(),
collections=[tf.GraphKeys.LOCAL_VARIABLES])

或者,您可以指定trainable=False作为tf.get_variable的参数:

my_non_trainable = tf.get_variable("my_non_trainable",
shape=(),
trainable=False)

您也可以使用自己的集合。任何字符串都是有效的集合名称,并且不需要显式创建集合。在创建变量之后向变量添加一个变量(或任何其他对象),调用tf.add_to_collection。例如,下面的代码添加一个名为my_local的现有变量到一个名为my_collection_name的集合:

tf.add_to_collection("my_collection_name", my_local)

为了检索你已经放置在集合中的所有变量(或其他对象)的列表,你可以使用:

tf.get_collection("my_collection_name")

查看更多

所有的文章都会在我的博客和我的知乎专栏同步进行更新,欢迎阅读

  • 我的博客
  • 知乎专栏

推荐阅读
  • 背景应用安全领域,各类攻击长久以来都危害着互联网上的应用,在web应用安全风险中,各类注入、跨站等攻击仍然占据着较前的位置。WAF(Web应用防火墙)正是为防御和阻断这类攻击而存在 ... [详细]
  • 2018年人工智能大数据的爆发,学Java还是Python?
    本文介绍了2018年人工智能大数据的爆发以及学习Java和Python的相关知识。在人工智能和大数据时代,Java和Python这两门编程语言都很优秀且火爆。选择学习哪门语言要根据个人兴趣爱好来决定。Python是一门拥有简洁语法的高级编程语言,容易上手。其特色之一是强制使用空白符作为语句缩进,使得新手可以快速上手。目前,Python在人工智能领域有着广泛的应用。如果对Java、Python或大数据感兴趣,欢迎加入qq群458345782。 ... [详细]
  • 生成式对抗网络模型综述摘要生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。生成式对抗网络 ... [详细]
  • [译]技术公司十年经验的职场生涯回顾
    本文是一位在技术公司工作十年的职场人士对自己职业生涯的总结回顾。她的职业规划与众不同,令人深思又有趣。其中涉及到的内容有机器学习、创新创业以及引用了女性主义者在TED演讲中的部分讲义。文章表达了对职业生涯的愿望和希望,认为人类有能力不断改善自己。 ... [详细]
  • 浏览器中的异常检测算法及其在深度学习中的应用
    本文介绍了在浏览器中进行异常检测的算法,包括统计学方法和机器学习方法,并探讨了异常检测在深度学习中的应用。异常检测在金融领域的信用卡欺诈、企业安全领域的非法入侵、IT运维中的设备维护时间点预测等方面具有广泛的应用。通过使用TensorFlow.js进行异常检测,可以实现对单变量和多变量异常的检测。统计学方法通过估计数据的分布概率来计算数据点的异常概率,而机器学习方法则通过训练数据来建立异常检测模型。 ... [详细]
  • 本文介绍了在Python张量流中使用make_merged_spec()方法合并设备规格对象的方法和语法,以及参数和返回值的说明,并提供了一个示例代码。 ... [详细]
  • Window10+anaconda+python3.5.4+ tensorflow1.5+ keras(GPU版本)安装教程 ... [详细]
  • 【论文】ICLR 2020 九篇满分论文!!!
    点击上方,选择星标或置顶,每天给你送干货!阅读大概需要11分钟跟随小博主,每天进步一丢丢来自:深度学习技术前沿 ... [详细]
  • 本人学习笔记,知识点均摘自于网络,用于学习和交流(如未注明出处,请提醒,将及时更正,谢谢)OS:我学习是为了上 ... [详细]
  • 人工智能推理能力与假设检验
    最近Google的Deepmind开始研究如何让AI做数学题。这个问题的提出非常有启发,逻辑推理,发现新知识的能力应该是强人工智能出现自我意识之前最需要发展的能力。深度学习目前可以 ... [详细]
  • Win10+Python3.7+Tensorflow安装
    Win10+Python3.7+Tensorflow安装Step1:安装AnacondaStep2:Tensorflow的安装转载请注明出处:https:blog.csdn.net ... [详细]
  • 搭建Windows Server 2012 R2 IIS8.5+PHP(FastCGI)+MySQL环境的详细步骤
    本文详细介绍了搭建Windows Server 2012 R2 IIS8.5+PHP(FastCGI)+MySQL环境的步骤,包括环境说明、相关软件下载的地址以及所需的插件下载地址。 ... [详细]
  • 本文介绍了高校天文共享平台的开发过程中的思考和规划。该平台旨在为高校学生提供天象预报、科普知识、观测活动、图片分享等功能。文章分析了项目的技术栈选择、网站前端布局、业务流程、数据库结构等方面,并总结了项目存在的问题,如前后端未分离、代码混乱等。作者表示希望通过记录和规划,能够理清思路,进一步完善该平台。 ... [详细]
  • GPT-3发布,动动手指就能自动生成代码的神器来了!
    近日,OpenAI发布了最新的NLP模型GPT-3,该模型在GitHub趋势榜上名列前茅。GPT-3使用的数据集容量达到45TB,参数个数高达1750亿,训练好的模型需要700G的硬盘空间来存储。一位开发者根据GPT-3模型上线了一个名为debuid的网站,用户只需用英语描述需求,前端代码就能自动生成。这个神奇的功能让许多程序员感到惊讶。去年,OpenAI在与世界冠军OG战队的表演赛中展示了他们的强化学习模型,在限定条件下以2:0完胜人类冠军。 ... [详细]
  • 建立分类感知器二元模型对样本数据进行分类
    本文介绍了建立分类感知器二元模型对样本数据进行分类的方法。通过建立线性模型,使用最小二乘、Logistic回归等方法进行建模,考虑到可能性的大小等因素。通过极大似然估计求得分类器的参数,使用牛顿-拉菲森迭代方法求解方程组。同时介绍了梯度上升算法和牛顿迭代的收敛速度比较。最后给出了公式法和logistic regression的实现示例。 ... [详细]
author-avatar
George
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有