转到正文

博客水木

一个学习总结与工作经验分享博客。

博客不在多,有原创就行;内容不在深,无堆砌就灵。斯,是博客,唯技术先行。架构满篇飞,代码无陋空。谈笑IT事,调侃网络中。 可以做网站,阅PHP之圣经。无QQ群之乱耳,无媒体之炒作。南到天涯,北到水木,众网友曰:开心就好! 继续阅读

编者按:本文作者 SenceTime (商汤科技)CEO 徐立,文章内容整理自 4月20日 由将门举办的 “计算机视觉” 主题技术专家微信群分享嘉宾实录。文章首发于微信号:将门创业(ID:thejiangmen)。 我是从 03年 开始就接触视觉这个领域,也就是从本科三年级开始做这个方向,到现在十几年了,所以我对计算机视觉的整个...继续阅读

第一门课 神经网络和深度学习(Neural Networks and Deep Learning) 第一周:深度学习引言(Introduction to Deep Learning) 1.1 欢迎(Welcome) 1 1.2 什么是神经网络?(What is a Neural Network) 1.3 神经网络的监督学习(Supervised Learning with Neural Networks) 1.4 为什么神经网络会流行?(Why is Deep Lea...继续阅读

 最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学...继续阅读

FCN (FullyConvolutional Networks for Semantic Segmentation ) 基于深度学习主要的做法有两种: ·        基于图像分块:利用像素、超像素块周围小邻域进行独立的分类。(在分类网络中使用全连接层,固定图像块尺寸) ·       ...继续阅读

自然语言处理(简称NLP),是研究计算机处理人类语言的一门技术,包括: 1.句法语义分析:对于给定的句子,进行分词、词性标记、命名实体识别和链接、句法分析、语义角色识别和多义词消歧。 2.信息抽取:从给定文本中抽取重要的信息,比如,时间、地点、人物、事件、原因、结果、数字、日期、货币、专有名词等等...继续阅读

参考课程:YUN-NUNG (VIVIAN) CHEN的深度学习课程 参考书籍:http://lamda.nju.edu.cn/weixs/book/CNN_book.pdf 1.网络训练(神经网络前馈运算+反馈运算) 前馈运算:后一层的输入(z)=前一层的输出(a)与对应权值(w-两层间的连接线上)加权求和。 反馈运算(backpropagation):后一次迭代的权值w/偏置b=前一次迭代...继续阅读

一、多层前向神经网络多层前向神经网络由三部分组成:输出层、隐藏层、输出层,每层由单元组成;输入层由训练集的实例特征向量传入,经过连接结点的权重传入下一层,前一层的输出是下一层的输入;隐藏层的个数是任意的,输入层只有一层,输出层也只有一层;除去输入层之外,隐藏层和输出层的层数和为n,则该神经...继续阅读

2017 年是机器学习领域最有成效、最具创意的一年。现在已经有很多博文以及官方报道总结了学界和业界的重大突破。本文略有不同,Alex Honchar在Medium发文,从研究者的角度分享机器学习明年发展的走向。 本文的预测基于 2012 年以来我关注的学术界和科技巨头实验室的研究思路演变。我所选择的领域,从我的观点来...继续阅读

深度学习是一个计算需求强烈的领域,您的GPU的选择将从根本上决定您的深度学习体验。在没有GPU的情况下,这可能看起来像是等待实验结束的几个月,或者运行一天或更长时间的实验,只是看到所选参数已关闭。 有了一个好的,坚实的GPU,人们可以快速迭代深度学习网络,并在几天而不是几个月,几小时而不是几天,几分...继续阅读

Tensorflow:基于LSTM生成藏头诗 最近在学习TensorFlow,学习到了RNN这一块,相关的资料不是很多,了解到使用RNN可以生成藏头诗之后,我就决定拿这个下手啦! 本文不介绍RNN以及LSTM的相关基本知识,如要了解,请自行百度。 本文是在学习了 TensorFlow7: 基于RNN生成古诗词 这一篇博客之后继...继续阅读

建站服务