TensorFlow的基础结构
2023-02-18 16:36:00 时间
Tensorflow 是非常重视结构的, 我们得建立好了神经网络的结构, 才能将数字放进去, 运行这个结构.
这个例子简单的阐述了 tensorflow 当中如何用代码来运行我们搭建的结构.
创建数据
首先, 我们这次需要加载 tensorflow 和 numpy 两个模块, 并且使用 numpy 来创建我们的数据.
import tensorflow as tf
import numpy as np
# create data
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data*0.1 + 0.3
接着, 我们用tf.Variable
来创建描述y
的参数. 我们可以把y_data = x_data*0.1 + 0.3
想象成y=Weights * x + biases
, 然后神经网络也就是学着把 Weights 变成 0.1, biases 变成 0.3.
搭建模型
Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
biases = tf.Variable(tf.zeros([1]))
y = Weights*x_data + biases
计算误差,即损失值
接着就是计算 y
和 y_data
的误差:
loss = tf.reduce_mean(tf.square(y-y_data))
传播误差
反向传递误差的工作就教给optimizer
了, 我们使用的误差传递方法是梯度下降法: Gradient Descent
让后我们使用 optimizer
来进行参数的更新.
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)
训练
到目前为止, 我们只是建立了神经网络的结构, 还没有使用这个结构. 在使用这个结构之前, 我们必须先初始化所有之前定义的Variable
, 所以这一步是很重要的!
# init = tf.initialize_all_variables() # tf 马上就要废弃这种写法
init = tf.global_variables_initializer() # 替换成这样就好
接着,我们再创建会话Session
. 我们会在下一节中详细讲解 Session. 我们用Session
来执行init
初始化步骤. 并且, 用Session
来run
每一次 training 的数据. 逐步提升神经网络的预测准确性.
sess = tf.Session()
sess.run(init) # Very important
for step in range(201):
sess.run(train)
if step % 20 == 0:
print(step, sess.run(Weights), sess.run(biases))
最终运行结果如下:
【小结】
对于Tensorflow的了解,我们将一起步步深入,逐步探索其中的奥妙之处...
相关文章
- @Validated – 接口参数校验注解
- thingsboard设备状态更新可能导致的不一致性问腿
- windows升级docker-compose
- 理解YACC中符号的优先级和结合性
- compose--修饰符Modifier
- compose--CompositionLocal、列表LazyColumn&LazyRow、约束布局ConstraintLayout
- SAP ABAP CDS view Association 引入的缘由
- OnD1操练纪要-微信朋友圈权限领域建模操练
- 贪吃蛇复现-CoCube
- 共享主机和 WordPress 主机之间的区别
- 如何在 WordPress 中嵌入 iFrame
- 第十四届蓝桥杯集训——JavaC组第八篇——进制转换
- 第十四届蓝桥杯集训——JavaC组第九篇——位运算符
- 第十四届蓝桥杯集训——JavaC组第九篇——三元运算符
- 【数据挖掘】薪酬分段对应工作经验/学历画柱状图【招聘网站的职位招聘数据预处理】
- Grafana 的介绍和安装
- SpringSecurity用户绑定到线程
- SpringSecurity权限过滤
- 汇编学习(6), 外部函数,调用约定
- 汇编学习(7), Bit 操作