【Tensorflow】 第五节 Ubuntu16.04LTS安装TensorflowCPU安装

本机实验环境:

Ubuntu16.04 64 笔记本
硬件配置(涉及系统安装,配置作为参考):
CPU: i7 - 6700HQ
GPU:GTX 960M
内存: 8 G DDR3L * 2 双通道共 16 G
SSD硬盘 : M.2 2280 Nvme格式 固态硬盘 256G 容量
HDD硬盘 : 5400转 机械硬盘 1T 容量

实验准备:

1,完成前四节
2,本机具有 Python解释器/pip/ANACONDA/PyCharm

实验目的

1,安装CPU版本的Tensorflow
1,运行Tensorflow案例

实验开始:

1,安装虚拟环境Virtualenv

打开终端输入:

sudo apt-get install python-virtualenv

使用包管理器下载Virtualenv
安装成功后创建Virtualenv虚拟环境
Python2.X输入以下代码

virtualenv --system-site-packages targetDirectory

Python3.X输入以下代码

virtualenv --system-site-packages -p python3 targetDirectory

其中的targetDirectory是目标地址,我这里替换为

~/tensorflow

创建虚拟环境成功后就需要激活虚拟环境

source ~/tensorflow/bin/activate

等待提示符改变,若显示(tensorflow)$
则表示进入虚拟环境。

先不要退出虚拟环境我们在虚拟环境中安装tensorflow

2,安装Tensorflow(CPU版本)

接着上面的虚拟机终端,在虚拟环境中输入以下命令,这里还是有两个版本,选择对应的版本进行输入。

Python2.X输入

pip install --upgrade tensorflow

Python3.X输入

pip3 install --upgrade tensorflow

等待安装完成后就完成了。

3,跑tensorflow案例程序

这里提供一个Tensorflow的案例程序,是识别手写数字的程序。
需要先下载数据集

数据集下载
数据集组成:
train-images-idx3-ubyte.gz: training set images (9912422 bytes)
train-labels-idx1-ubyte.gz: training set labels (28881 bytes)
t10k-images-idx3-ubyte.gz: test set images (1648877 bytes)
t10k-labels-idx1-ubyte.gz: test set labels (4542 bytes)

下载完成后先都可以放在桌面上,等下需要移动到data文件夹。
这里提供程序算法Python文件:

//fc_feed.py

# coding:utf-8

import tensorflow as tf
import argparse
import sys
import math

from tensorflow.examples.tutorials.mnist import input_data

image_size = 28
FLAGS = None
NUM_CLASSES = 10
keep_p = tf.constant(0.5,dtype=tf.float32)


def train():
    # 加载数据集:训练、验证和测试数据集
    data_sets = input_data.read_data_sets(FLAGS.input_data_dir,FLAGS.fake_data)
    train_data = data_sets.train
    valid_data = data_sets.validation
    test_data = data_sets.test

    graph = tf.Graph()
    with graph.as_default():
        x_placeholder = tf.placeholder(tf.float32,shape=(None,image_size*image_size),name='input_x')
        y_placeholder = tf.placeholder(tf.float32,shape=(None),name='input_y')

        weights = {
            'h1': tf.Variable(tf.truncated_normal([image_size*image_size,FLAGS.hidden1],stddev=1.0 / math.sqrt(float(image_size*image_size))),name='h1/weights'),'h2': tf.Variable(tf.truncated_normal([FLAGS.hidden1,FLAGS.hidden2],stddev=1.0 / math.sqrt(float(FLAGS.hidden1))),name='h2/weights'),'out': tf.Variable(tf.truncated_normal([FLAGS.hidden2,NUM_CLASSES],stddev=1.0 / math.sqrt(float(FLAGS.hidden2))),name='out/weights')
        }

        biases = {
            'h1': tf.Variable(tf.zeros([FLAGS.hidden1]),name='h1/biases'),'h2': tf.Variable(tf.zeros([FLAGS.hidden2]),name='h2/biases'),'out': tf.Variable(tf.zeros([NUM_CLASSES]),name='out/biases')
        }

        hidden1 = tf.nn.relu(tf.matmul(x_placeholder,weights['h1']) + biases['h1'])
        #hidden1 = tf.nn.dropout(hidden1,keep_prob=keep_p)
        hidden2 = tf.nn.relu(tf.matmul(hidden1,weights['h2']) + biases['h2'])
        #hidden2 = tf.nn.dropout(hidden2,keep_prob=keep_p)
        logits = tf.matmul(hidden2,weights['out']) + biases['out']

        labels = tf.to_int64(y_placeholder)
        cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=labels,logits=logits,name='xentropy')
        loss = tf.reduce_mean(cross_entropy,name='xentropy_mean')
        # loss = tf.reduce_mean(tf.nn. sparse_softmax_cross_entropy_with_logits(labels=y_placeholder,logits=output)
        # + 0.5 * 0.01 * tf.nn.l2_loss(weights['h1'])
        # + 0.5 * 0.01 * tf.nn.l2_loss(weights['h2'])
        # + 0.5 * 0.01 * tf.nn.l2_loss(weights['out']))

        correct = tf.nn.in_top_k(logits,labels,1)
        eval_correct = tf.reduce_sum(tf.cast(correct,tf.int32))

        optimizer = tf.train.GradientDescentOptimizer(FLAGS.learning_rate)
        global_step = tf.Variable(0,name='global_step',trainable=False)
        train_op = optimizer.minimize(loss,global_step=global_step)

    with tf.Session(graph=graph) as sess:
        sess.run(tf.global_variables_initializer())
        for step in xrange(FLAGS.max_steps):
            images,labels = train_data.next_batch(batch_size=FLAGS.batch_size)
            _,loss_value = sess.run([train_op,loss],feed_dict={x_placeholder: images,y_placeholder: labels})
            del images,labels

            if step % 100 == 0:
                print('Step %d: loss = %.2f' % (step,loss_value))

            if (step + 1) % 1000 == 0 or (step + 1) == FLAGS.max_steps:
                # Evaluate against the validation set.
                print('Validation Data Eval:')
                true_count = sess.run(eval_correct,feed_dict={x_placeholder: valid_data.images,y_placeholder: valid_data.labels})
                num_examples = valid_data.num_examples
                precision = float(true_count) / num_examples
                print(' Num examples: %d Num correct: %d Precision @ 1: %0.04f' %
                      (num_examples,true_count,precision))

                # Evaluate against the test set.
                print('Test Data Eval:')
                true_count = sess.run(eval_correct,feed_dict={x_placeholder: test_data.images,y_placeholder: test_data.labels})
                num_examples = test_data.num_examples
                precision = float(true_count) / num_examples
                print(' Num examples: %d Num correct: %d Precision @ 1: %0.04f' %
                      (num_examples,precision))


def main(_):
    if tf.gfile.Exists(FLAGS.log_dir):
        tf.gfile.DeleteRecursively(FLAGS.log_dir)
    tf.gfile.MakeDirs(FLAGS.log_dir)
    train()


if __name__ == '__main__':
    parser = argparse.ArgumentParser()
    parser.add_argument(
        '--learning_rate',type=float,default=0.01,help='Initial learning rate.'
    )
    parser.add_argument(
        '--max_steps',type=int,default=2000,help='Number of steps to run trainer.'
    )
    parser.add_argument(
        '--hidden1',default=128,help='Number of units in hidden layer 1.'
    )
    parser.add_argument(
        '--hidden2',default=32,help='Number of units in hidden layer 2.'
    )
    parser.add_argument(
        '--batch_size',default=100,help='Batch size. Must divide evenly into the dataset sizes.'
    )
    parser.add_argument(
        '--input_data_dir',type=str,default='data',help='Directory to put the input data.'
    )
    parser.add_argument(
        '--log_dir',default='log',help='Directory to put the log data.'
    )
    parser.add_argument(
        '--model_dir',default='models',help='Directory to put the log data.'
    )
    parser.add_argument(
        '--fake_data',default=False,help='If true,uses fake data for unit testing.',action='store_true'
    )

    FLAGS,unparsed = parser.parse_known_args()
    tf.app.run(main=main,argv=[sys.argv[0]] + unparsed)

在PyCharm中打开该程序,

提示要配置Oython编译器,点击右边的链接-Configure Python Interpreter

选择添加本地路径解释器
选择自己的tensorflow文件夹bin中的python编译器


等待包加载完毕,点击OK

运行该程序,会报错,不用管。回到程序根部目录,会发现自动生成data和log文件夹,我们把之前手动下载的数据集都扔到data文件夹中。

再次进入PyCharm,运行程序。
若控制台输出如下,则完成本次实验,案例程序跑成功。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


文章浏览阅读2.3k次,点赞4次,收藏22次。最近安装了CARLA预编译版,总体过程感觉还是挺简单的,但是由于在网上找的参考资料并没有和自己遇到的情况完全一样的,所以把自己的安装过程记录下来,方便和自己一样的后来人进行安装,同时也自己作个记录留作备忘。其实预编译版的CARLA本身几乎不用什么命令行进行安装,主要步骤只有解压缩和拷贝文件,和极少的命令行安装操作。但是相关依赖以及其它的CARLA所使用的一些工具需要一起安装好,下面一起来看看安装步骤吧。_ubuntu22.04安装carla
文章浏览阅读6.3k次,点赞5次,收藏15次。在清华镜像中下载Ubuntu 20 安装包_ubuntu20下载
文章浏览阅读5k次。linux环境, python3.7.问题描述: 安装rally, pip3 install -r requirements.txt 时提示如下: 说明openssl 已安装。解决:1. pip3 install --upgrade pip , 结果输出如下 ..._error: command '/usr/bin/gcc' failed with exit code 1
文章浏览阅读1.1k次。自己刚踩坑装好的W11 WSL2 miniconda_wsl2 cuda
文章浏览阅读4.2k次,点赞4次,收藏17次。要安装这个 standalone的,会有一点区别(不识别 下面的 -localhost no)上面的命令会在~/.vnc/目录下生成一个 passwd文件。具体端口号,可以查看vncserver -list返回结果中的RFB PROT。作用是vncserver启动的时候运行这些命令,把桌面程序启动起来。如果希望用某个用户比如 demo登录,就用su切换到这个用户。桌面版默认就已安装,服务器版需要手动安装,并启动。关闭某个会话可以用下面的命令。远程地址输入ip:port。查看全部的vnc会话。_ubuntu vncserver
文章浏览阅读894次,点赞51次,收藏31次。在安卓使用vscode主要是连接一个远程的code-server服务,code-server服务安装在什么系统,调用的就是什么系统的环境,如这里使用ubuntu进行安装code-server,那使用的就是ubuntu环境,如需要go,python,java开发,需要在Ubuntu安装相关环境,创建的文件夹和项目也是在Ubuntu里面.这种方式其实在访问vscode的时候利于可以随时随地进行连接使用,且不受设备影响。
安装Ubuntu上超好用的终端Terminator。通过添加软件源、更新源、安装Terminator等步骤完成。
文章浏览阅读1.1k次,点赞83次,收藏74次。不要嫌弃Ubuntu的单调的终端界面啦,快来试试这些有意思的命令_ubuntu系统有趣的玩法
文章浏览阅读2.5k次。在ubuntu系统中,swap空间就是虚拟内存,所以考虑在磁盘空间富余的目录下设置虚拟内存swap文件,用来缓解内存不足的问题。通过上面的信息可以看到,/dev/vda2 目录下还剩余45G,那么就可以把swap文件生成在/dev/vda2目录下。在系统监控中发现,当数据库服务程序启动后,占用了大量内存空间,导致系统的剩余的内存往往只有几十MB。# bs 为块的大小,count 创建多少个块。# 执行命令后,删除创建的swap目录即可。#把生成的文件转换成 Swap 文件。2、创建一个swap文件。_ubuntu20修改swap大小
文章浏览阅读2.9k次,点赞2次,收藏10次。记录RV1126的SDK编译错误,以及解决处理_command exited with non-zero status 1
文章浏览阅读1.1w次,点赞22次,收藏101次。【记录】ubuntu20.04安装nvidia显卡驱动_ubuntu20.04安装nvidia显卡驱动
文章浏览阅读727次,点赞6次,收藏27次。在嵌入式Linux开发过程中,可能遇到uboot无法通过nfs服务从Ubuntu下载系统镜像(TTTTTT)的问题。如果你使用的是较新版本的Ubuntu,那么其**默认内核将不支持nfs2**!而**uboot仅支持到nfs2**,因此我们需要修改系统内核以及nfs配置文件,开启nfs2服务。**此问题非常棘手**,因为问题出现的时间太近,并且使用的人少。由于是2023年后才出现的问题,**chatgpt也无法解答**!本文参考网络上多篇博客资料,是解决此问题的最新办法。
ubuntu系统下安装软件的方法有多种,包括使用apt工具、deb软件包安装、源码编译安装以及通过软件中心安装。还有一种以 .run 后缀的软件包也可以在ubuntu系统下安装。具体的安装方法可以通过百度搜索来获取。
文章浏览阅读814次。本篇目的:Xubuntu如何安装pkg-configpkg-config是一个计算机软件包,用于帮助开发人员查找、定位和使用依赖库。它通常用于构建软件时,开发人员需要指定程序所依赖的外部库的位置和版本信息。使用pkg-config,开发人员可以很容易地查找、检索和导出这些依赖库的信息,从而简化了软件的构建过程。_ubuntu中怎么下载pkg-config
文章浏览阅读2k次。ubuntu创建共享文件夹_ubuntu20.04共享文件夹
文章浏览阅读2.9k次,点赞74次,收藏73次。对于有长期远程桌面需求的用户,建议将cpolar套餐升级到专业套餐,支持配置固定的公网TCP端口,且带宽也会相应的增大,支持更高效便捷的远程桌面连接Ubuntu系统。【cpolar内网穿透支持http/https/tcp协议,支持永久免费使用,不限制流量,无需公网IP,也不用进入路由器设置,操作简单。隧道创建成功后,点击左侧仪表盘的状态——在线隧道列表,查看xrdp隧道的所生成的公网TCP端口地址,复制下来。,使用cpolar内网穿透映射3389端口,生成公网TCP端口地址,实现在公网环境下,_ubuntu 局域网桌面
文章浏览阅读3.2k次。而在linux的ubuntu版本中,又多出两类用户:安装ubuntu系统的源用户xxx,其与root具有相同权限,仅在执行命令时,前面加sudo。在ubuntu中,用命令deluser username可以直接删除用户账号及家目录,而用centos7中的命令userdel -r username才能达到同样目的。在ubuntu中,没有moduser命令,centos7中的usermod修改用户信息的命令,同样可以用在ubuntu中。在系统中,创建新的用户或称为账号,一般需要多步操作。_ubuntu创建一个新用户
文章浏览阅读1.6w次,点赞4次,收藏23次。系统的许多日志文件都存储在 /var/log 目录中。你可以使用 ls /var/log 命令来列出可用的日志文件。/var/log/Xorg.0.log:包含 X 服务器的日志信息(图形界面)。打开DASH,搜索日志或者log,打开app,这个是/var/log的界面版。这将显示系统日志的末尾,并提供有关系统崩溃和错误的信息。/var/log/kern.log:包含内核日志信息。/var/log/dmesg:包含开机时的日志信息。/var/log/syslog:包含系统日志信息。_ubuntu查看系统日志
文章浏览阅读857次。首先将source.list复制为source.list.bak备份,然后将source.list内容改为需要的镜像源列表即可。Ubuntu采用apt作为软件安装工具,其镜像源列表记录在/etc/apt/source.list文件中。本节均为 Ubuntu 20.04 的镜像源列表。若为其他版本,将所有focal更改为其他版本代号即可。_apt 国内源