zl程序教程

Deep Learning

  • 李宏毅《机器学习》丨4. Deep Learning(深度学习)

    李宏毅《机器学习》丨4. Deep Learning(深度学习)

    Author:AXYZdong 李宏毅《机器学习》系列 参考视频地址:https://www.bilibili.com/video/BV1Ht411g7Ef 参考文档:DataWhale文档 文章目录一、深度学习发展历史二、深度学习三个步骤2.1 Step1:神经网络(Neural network)2.2 Step2:模型评估(Goodness of function)2.3 Step3

    日期 2023-06-12 10:48:40     
  • 基于Deep Learning 的视频识别技术「建议收藏」

    基于Deep Learning 的视频识别技术「建议收藏」

    大家好,又见面了,我是你们的朋友全栈君。深度学习在最近十来年特别火,几乎是带动AI浪潮的最大贡献者。互联网视频在最近几年也特别火,短视频、视频直播等各种新型UGC模式牢牢抓住了用户的消费心里,成为互联网吸金的又一利器。当这两个火碰在一起,会产生什么样的化学反应呢?不说具体的技术,先上一张福利图,该图展示了机器对一个视频的认知效果。其总红色的字表示objects, 蓝色的字表示scenes,绿色的字

    日期 2023-06-12 10:48:40     
  • Deep Reinforcement learning – 2. 基于tensorflow的DDPG实现

    Deep Reinforcement learning – 2. 基于tensorflow的DDPG实现

    大家好,又见面了,我是你们的朋友全栈君。 Deep Reinforcemen learning – 2. 基于tensorflow的DDPG实现基于我上一篇博客的算法介绍, 使用tensorflow的代码实现,仿真环境使用gym torcs 为了快速训练出结果,我没有使用driver view图像作为输入,而是使用low dimension传感器数据作为输入, 总共29个数据,包括:

    日期 2023-06-12 10:48:40     
  • [文献阅读]Deep Metric and Hash-Code Learning for Content-Based Retrieval of Remote Sensing Images

    [文献阅读]Deep Metric and Hash-Code Learning for Content-Based Retrieval of Remote Sensing Images

    春恋慕 为进一步探究基于度量学习的深度哈希图像检索方法,阅读IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium会议论文:Deep Metric and Hash-Code Learning for Content-Based Retrieval of Remote Sensing Images。

    日期 2023-06-12 10:48:40     
  • Deep Learning中的一些技巧

    Deep Learning中的一些技巧

    点击蓝字关注我在利用Deep Learning解决实际问题的过程中,如果结果不尽如意,应该怎么改进呢?一、概述总得来说,所有的改进方法都可以用下面这张图来总体概括:经历深度学习的三个步骤之后,我们得到了一个NN。那么首先我们应该检查该NN在训练集上面的表现,如果连训练集都不能很好的拟合,那么就应该检查那三个步骤我们是否可以有修改的地方。 如果训练集表现很好,那么就用测试集来检查这个NN,测试集上表

    日期 2023-06-12 10:48:40     
  • 【DeepLearning学习笔记】Neurons神经元

    【DeepLearning学习笔记】Neurons神经元

    大家好,又见面了,我是你们的朋友全栈君。今天找到一个比较好的deep learning的教材:Neural Networks and Deep Learning 对神经网络有详细的讲解,鉴于自己青年痴呆,还是总结下笔记吧=。=Perceptron感知器Perceptron的输入的一组binary变量xi,对这些binary变量求出加权和后,如果这个和大于某个阈值threshold,就输出1;否则输

    日期 2023-06-12 10:48:40     
  • DeepLearning之LSTM模型输入参数:time_step, input_size, batch_size的理解[通俗易懂]

    DeepLearning之LSTM模型输入参数:time_step, input_size, batch_size的理解[通俗易懂]

    大家好,又见面了,我是你们的朋友全栈君。1. LSTM模型 输入参数理解(Long Short-Term Memory)lstm是RNN模型的一种变种模式,增加了输入门,遗忘门,输出门。LSTM也是在时间序列预测中的常用模型。小白我也是从这个模型入门来开始机器学习的坑。LSTM的基本概念与各个门的解释已经有博文写的非常详细:推荐博文:【译】理解LSTM(通俗易懂版)这篇文章写的非常详细,生动,概念

    日期 2023-06-12 10:48:40     
  • Deep Learning Chapter01:机器学习中线性代数

    Deep Learning Chapter01:机器学习中线性代数

    Deep Learning Chapter01:机器学习中线性代数好久不见,大家好,我是北山啦。机器学习当中需要用到许多的数学知识,如今博主又要继续踏上深度学习的路程,所以现在在网上总结了相关的考研数学和机器学习中常见相关知识如下,希望对大家有所帮助。线性代数行列式1.行列式按行(列)展开定理(1) 设A = ( a_{{ij}} )_{n \times n},则:a_{i1}A_{j1} +a_

    日期 2023-06-12 10:48:40     
  • 斯坦福尤佳轩 | EMPOWERING DEEP LEARNING WITH GRAPHS

    斯坦福尤佳轩 | EMPOWERING DEEP LEARNING WITH GRAPHS

    快速熟悉一个领域的好方法是阅读该方向顶级院校刚毕业PhD的博士论文。 入门图机器学习的同学建议读一下斯坦福尤佳轩的博士论文《EMPOWERING DEEP LEARNING WITH GRAPHS》。链接:https://stacks.stanford.edu/file/druid:mz469rn9516/PhD_thesis_final_Jiaxuan-augmented.pdf深度学习重塑了人

    日期 2023-06-12 10:48:40     
  • 深度学习(Deep Learning)发展史

    深度学习(Deep Learning)发展史

    本文节选自人民邮电出版社最新出版的 AI 圣经《深度学习(DEEP LEARNING)》。《深度学习(DEEP LEARNING)》英文版由美国麻省理工学院 MIT 出版社于 2016 年 12 月推出,一经出版就风靡全球。《深度学习(DEEP LEARNING)》的一大特点是介绍深度学习算法的本质,脱离具体代码实现给出算法背后的逻辑,不写代码的人也完全可以看。 由深度学习领域三位前沿、权威的专

    日期 2023-06-12 10:48:40     
  • 机器学习(Machine Learning)&深度学习(Deep Learning)资料(Chapter 2)

    机器学习(Machine Learning)&深度学习(Deep Learning)资料(Chapter 2)

    转自:http://ask.julyedu.com/question/708

    日期 2023-06-12 10:48:40     
  • Coursera台大机器学习技法课程笔记13-Deep Learning

    Coursera台大机器学习技法课程笔记13-Deep Learning

                      深度学习面临的问题和现在解决的办法:                                简要来说,分

    日期 2023-06-12 10:48:40     
  • Deep Residual Learning for Image Recognition(MSRA-深度残差学习)

    Deep Residual Learning for Image Recognition(MSRA-深度残差学习)

    转自:http://blog.csdn.net/solomonlangrui/article/details/52455638   ABSTRACT:           神经网络的训练因其层次加深而变得愈加困难。我们所提出的残差学习框架可以更轻松的对比前人所提深很多的网络进行训练。相对于之前网络所学习的

    日期 2023-06-12 10:48:40     
  • [Intro to Deep Learning with PyTorch -- L2 -- N24] Logistic Regression Algorithm

    [Intro to Deep Learning with PyTorch -- L2 -- N24] Logistic Regression Algorithm

      Implementing the Gradient Descent Algorithm In this lab, we'll implement the basic functions of the Gradient Descent algorithm to find the boundary in a small dataset. First, we'll start w

    日期 2023-06-12 10:48:40     
  • [Intro to Deep Learning with PyTorch -- L2 -- N20] Cross-Entropy

    [Intro to Deep Learning with PyTorch -- L2 -- N20] Cross-Entropy

    If I have bunch of events and a bunch of probabilities, how likely is it those events happen based on the probabilities? If it is very likely then we have a small cross entropy;  If it is unlike

    日期 2023-06-12 10:48:40     
  • Deep Learning系统实训之一:深度学习基础知识

    Deep Learning系统实训之一:深度学习基础知识

    K-近邻与交叉验证 1 选取超参数的正确方法是:将原始训练集分为训练集和验证集,我们在验证集上尝试不同的超参数,最后保留表现最好的那个。 2 如果训练数据量不够,使用交叉验证法,它能帮助我们在选取最优超参数的时候减少噪音。 3 一旦找到最优的超参数,就让算法以该参数在测试集跑且只跑一次,并根据测试结果评价算法。 4 最近邻分类器能够在CIFAR-10上得到将近40%的准确率。该算法简单易实现,但

    日期 2023-06-12 10:48:40     
  • (2)Deep Learning之线性单元和梯度下降

    (2)Deep Learning之线性单元和梯度下降

      往期回顾  在上一篇文章中,我们已经学会了编写一个简单的感知器,并用它来实现一个线性分类器。你应该还记得用来训练感知器的『感知器规则』。然而,我们并没有关心这个规则是怎么得到的。本文通过介绍另外一种『感知器』,也就是『线性单元』,来说明关于机器学习一些基本的概念,比如模型、目标函数、优化算法等等。这些概念对于所有的机器学习算法来说都是通用的,掌握了这些概念,就掌握了机器学

    日期 2023-06-12 10:48:40     
  • Deep Learning(深度学习)网络资源

    Deep Learning(深度学习)网络资源

    ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):一 ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):二 Bengio团队的deep learning教程,用的theano库,主要是rbm系列,搞python的可以参考,很不错。 deeplearning.net主页,里面包含的信息量非常多,有software, reading list,

    日期 2023-06-12 10:48:40     
  • Deep Learning系统实训之三:卷积神经网络

    Deep Learning系统实训之三:卷积神经网络

      边界填充(padding):卷积过程中,越靠近图片中间位置的像素点越容易被卷积计算多次,越靠近边缘的像素点被卷积计算的次数越少,填充就是为了使原来边缘像素点的位置变得相对靠近中部,而我们又不想让填充的数据影响到我们的计算结果,故填充值选择均用0来填充。 池化层不需要参数、只是对特征图进行压缩操作,以减少计算量:池化几乎不用平均池化,多用最大池化操作,对于最大池化,多选择特征图

    日期 2023-06-12 10:48:40     
  • Deep Learning系统实训之二:梯度下降原理

    Deep Learning系统实训之二:梯度下降原理

    基本概念理解: 一个epoch:当前所有数据都跑(迭代)了一遍;         那么两个epoch,就是把所有数据跑了两遍,三个epoch就是把所有数据跑了三遍,以此类推。 batch_size:每次迭代多少个数据;(batch_size称作批处理, 它的作用可以理解为每次训练100个数据(在这里假设将其设置为100),找到最适合的优化方向,确保不偏离最

    日期 2023-06-12 10:48:40     
  • (3)Deep Learning之神经网络和反向传播算法

    (3)Deep Learning之神经网络和反向传播算法

    往期回顾 在上一篇文章中,我们已经掌握了机器学习的基本套路,对模型、目标函数、优化算法这些概念有了一定程度的理解,而且已经会训练单个的感知器或者线性单元了。在这篇文章中,我们将把这些单独的单元按照一定的规则相互连接在一起形成神经网络,从而奇迹般的获得了强大的学习能力。我们还将介绍这种网络的训练算法:反向传播算法。最后,我们依然用代码实现一个神经网络。如果您能坚持到本文的结尾,将会看到我们用自己实

    日期 2023-06-12 10:48:40     
  • (1)Deep Learning之感知器

    (1)Deep Learning之感知器

    What is deep learning? 在人工智能领域,有一个方法叫机器学习。在机器学习这个方法里,有一类算法叫神经网络。神经网络如下图所示: 上图中每个圆圈都是一个神经元,每条线表示神经元之间的连接。我们可以看到,上面的神经元被分成了多层,层与层之间的神经元有连接,而层内之间的神经元没有连接。最左边的层叫做输入层,这层负责接收输入数据;最右边的层叫输出层,我们可以从这层获取神经网络输出

    日期 2023-06-12 10:48:40     
  • Deep Reinforcement Learning for Dialogue Generation-关于生成对话的深度强化学习

    Deep Reinforcement Learning for Dialogue Generation-关于生成对话的深度强化学习

    摘要 生成对话的最新神经模型为对话代理提供了很好的前景 但这往往是短视的、每次只预测一句话语从而忽视了它们对之后输出的影响。模拟对话的未来方向的关键在于生成连续、有趣的对话 导致对话的传统NLP模型去借鉴强化学习的需求。在本文中 我们展示如何去整合这些目标 在聊天机器人对话中使用深度强化学习去建模未来的反馈。该模型模拟两个虚拟代理之间的对话 使用策略梯度算法去惩罚序列 该序列展示三个有用的对话性质

    日期 2023-06-12 10:48:40     
  • Caffe —— Deep learning in Practice

    Caffe —— Deep learning in Practice

    因工作交接须要。 要将caffe用法及总体结构描写叙述清楚。 鉴于也有同学问过我相关内容, 决定在本文中写个简单的tutorial, 方便大家參考。 本文简单的讲几个事情: Caffe能做什么? 为什么选择caffe? 环境 总体结构 Protocol buffer 训练基本流程 Python中训练 Debug Caffe能做什么? 定义网络结构 训练网络 C

    日期 2023-06-12 10:48:40     
  • 论文解读(DCN)《Towards K-means-friendly Spaces: Simultaneous Deep Learning and Clustering》

    论文解读(DCN)《Towards K-means-friendly Spaces: Simultaneous Deep Learning and Clustering》

    论文信息 论文标题:Towards K-means-friendly Spaces: Simultaneous Deep Learning and Clustering论文作者:Bo Yang, Xiao Fu, Nicholas D. Sidiropoulos, Mingyi Hong论文来源:2016, ICML论文地址:download 论文代码:download

    日期 2023-06-12 10:48:40     
  • 论文解读(GraphDA)《Data Augmentation for Deep Graph Learning: A Survey》

    论文解读(GraphDA)《Data Augmentation for Deep Graph Learning: A Survey》

    论文信息 论文标题:Data Augmentation for Deep Graph Learning: A Survey论文作者:Kaize Ding, Zhe Xu, Hanghang Tong, Huan Liu论文来源:2022, arXiv论文地址:download  1 介绍   本文主要总结图数据增强,并对该领域的代表性方法

    日期 2023-06-12 10:48:40     
  • 论文解读(DMVCJ)《Deep Embedded Multi-View Clustering via Jointly Learning Latent Representations and Graphs》

    论文解读(DMVCJ)《Deep Embedded Multi-View Clustering via Jointly Learning Latent Representations and Graphs》

    论文信息 论文标题:Deep Embedded Multi-View Clustering via Jointly Learning Latent Representations and Graphs论文作者:Zongmo Huang、Yazhou Ren、Xiaorong Pu、Lifang He论文来源:2022, ArXiv论文地址:download 论文代码:download

    日期 2023-06-12 10:48:40     
  • 论文解读《Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning》

    论文解读《Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning》

    论文信息 论文标题:Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning论文作者:Qimai Li, Zhichao Han, Xiao-Ming Wu论文来源:2018, AAAI论文地址:download 论文代码:download

    日期 2023-06-12 10:48:40     
  • Dockerfile:Deeplearning_Playland

    Dockerfile:Deeplearning_Playland

    ARG CUDA_VERSION=11.1 FROM nvidia/cuda:${CUDA_VERSION}-cudnn8-devel-ubuntu20.04 MAINTAINER "Ammar Yas

    日期 2023-06-12 10:48:40     
  • Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现

    Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现

    https://blog.csdn.net/zouxy09/article/details/9993371    自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一方面也方便未来自己的勘察。更好的还可以放到博客上面与大家交

    日期 2023-06-12 10:48:40     
  • Deep Learning 深度学习 学习教程网站集锦(转)

    Deep Learning 深度学习 学习教程网站集锦(转)

    http://blog.sciencenet.cn/blog-517721-852551.html     学习笔记:深度学习是机器学习的突破        2006-2007年,加拿大多伦多大学教授、机器学习领域的泰斗Geoffrey Hinton和他的学生RuslanSalakhutdinov在《科学》以及在Neural computatio

    日期 2023-06-12 10:48:40