tensorflow 1.0 学习:参数和特征的提取
学习 参数 Tensorflow 提取 特征 1.0
2023-09-11 14:17:15 时间
在tf中,参与训练的参数可用 tf.trainable_variables()提取出来,如:
#取出所有参与训练的参数 params=tf.trainable_variables() print("Trainable variables:------------------------") #循环列出参数 for idx, v in enumerate(params): print(" param {:3}: {:15} {}".format(idx, str(v.get_shape()), v.name))
这里只能查看参数的shape和name,并没有具体的值。如果要查看参数具体的值的话,必须先初始化,即:
sess=tf.Session()
sess.run(tf.global_variables_initializer())
同理,我们也可以提取图片经过训练后的值。图片经过卷积后变成了特征,要提取这些特征,必须先把图片feed进去。
具体看实例:
# -*- coding: utf-8 -*- """ Created on Sat Jun 3 12:07:59 2017 @author: Administrator """ import tensorflow as tf from skimage import io,transform import numpy as np #-----------------构建网络---------------------- #占位符 x=tf.placeholder(tf.float32,shape=[None,100,100,3],name='x') y_=tf.placeholder(tf.int32,shape=[None,],name='y_') #第一个卷积层(100——>50) conv1=tf.layers.conv2d( inputs=x, filters=32, kernel_size=[5, 5], padding="same", activation=tf.nn.relu, kernel_initializer=tf.truncated_normal_initializer(stddev=0.01)) pool1=tf.layers.max_pooling2d(inputs=conv1, pool_size=[2, 2], strides=2) #第二个卷积层(50->25) conv2=tf.layers.conv2d( inputs=pool1, filters=64, kernel_size=[5, 5], padding="same", activation=tf.nn.relu, kernel_initializer=tf.truncated_normal_initializer(stddev=0.01)) pool2=tf.layers.max_pooling2d(inputs=conv2, pool_size=[2, 2], strides=2) #第三个卷积层(25->12) conv3=tf.layers.conv2d( inputs=pool2, filters=128, kernel_size=[3, 3], padding="same", activation=tf.nn.relu, kernel_initializer=tf.truncated_normal_initializer(stddev=0.01)) pool3=tf.layers.max_pooling2d(inputs=conv3, pool_size=[2, 2], strides=2) #第四个卷积层(12->6) conv4=tf.layers.conv2d( inputs=pool3, filters=128, kernel_size=[3, 3], padding="same", activation=tf.nn.relu, kernel_initializer=tf.truncated_normal_initializer(stddev=0.01)) pool4=tf.layers.max_pooling2d(inputs=conv4, pool_size=[2, 2], strides=2) re1 = tf.reshape(pool4, [-1, 6 * 6 * 128]) #全连接层 dense1 = tf.layers.dense(inputs=re1, units=1024, activation=tf.nn.relu, kernel_initializer=tf.truncated_normal_initializer(stddev=0.01), kernel_regularizer=tf.nn.l2_loss) dense2= tf.layers.dense(inputs=dense1, units=512, activation=tf.nn.relu, kernel_initializer=tf.truncated_normal_initializer(stddev=0.01), kernel_regularizer=tf.nn.l2_loss) logits= tf.layers.dense(inputs=dense2, units=5, activation=None, kernel_initializer=tf.truncated_normal_initializer(stddev=0.01), kernel_regularizer=tf.nn.l2_loss) #---------------------------网络结束--------------------------- #%% #取出所有参与训练的参数 params=tf.trainable_variables() print("Trainable variables:------------------------") #循环列出参数 for idx, v in enumerate(params): print(" param {:3}: {:15} {}".format(idx, str(v.get_shape()), v.name)) #%% #读取图片 img=io.imread('d:/cat.jpg') #resize成100*100 img=transform.resize(img,(100,100)) #三维变四维(100,100,3)-->(1,100,100,3) img=img[np.newaxis,:,:,:] img=np.asarray(img,np.float32) sess=tf.Session() sess.run(tf.global_variables_initializer()) #提取最后一个全连接层的参数 W和b W=sess.run(params[26]) b=sess.run(params[27]) #提取第二个全连接层的输出值作为特征 fea=sess.run(dense2,feed_dict={x:img})
最后一条语句就是提取某层的数据输出作为特征。
注意:这个程序并没有经过训练,因此提取出的参数只是初始化的参数。
相关文章
- 程序员的量化交易之路(11)--命令参数解析库JCommonder学习
- 【AIX 命令学习】errpt 命令参数使用!
- 【AIX 命令学习】lscfg -l hdisk1 -v 查看 hdisk1系统配置
- AE的Annotation学习摘记
- R语言与显著性检验学习笔记
- keras系列︱迁移学习:利用InceptionV3进行fine-tuning及预测、完美案例(五)
- 《从零开始学Swift》学习笔记(Day 35)——会使用下标吗?
- 机器学习笔记 - Google 神经网络库JAX/FLAX入门
- 机器学习笔记 - 理解和计算卷积神经网络 (CNN) 中的参数数量
- ES6学习之路3----rest参数与扩展运算符
- 【STM32F429】第8章 学习USB协议栈前要了解的基础知识
- [ML] 深度学习的数学基础: 函数/参数优化/矩阵运算/向量化/卷积运算/张量运算
- Interview之AI:深度学习算法工程师面试之常见专业知识考点(参数初始化策略(Lecun、Xavier/Glorot、Kaiming、基于BN的随机的参数初始化)、图像算法基础(ROI)
- ML之回归预测:利用十(xgboost,10-1)种机器学习算法对无人驾驶汽车系统参数(2017年的data,18+2)进行回归预测值VS真实值——bug调试记录
- Python Flask框架学习29:项目管理器Manager/传递参数/优化项目代码结构
- Vue学习之--------路由的query、params参数、路由命名(3)(2022/9/5)
- MySQL -MMM 学习整理
- 机器学习最困难的部分:超参数调试
- 《TPM原理及应用指南》学习 —— TPM执行环境1(4)
- 《TPM原理及应用指南》学习 —— TPM执行环境0
- Django学习5 -- 添加个人应用(数据库)
- 机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size
- 机器学习 LR中的参数迭代公式推导——极大似然和梯度下降
- 机器学习算法选择
- ctpn算法是机器学习吗?什么是CTPN算法?
- SELinux零知识学习一、初识