贾扬清(贾扬清是p几)

贾扬清(贾扬清是p几)

深度学习caffe的代码怎么读

楼上的大神回答的都很好了,非常感谢。这里我想说一下我自己学习caffe的方式,限于时间篇幅,并不想深入到具体的实现细节,只是从大的方向上谈谈,因为讲清楚一个细节都是一篇博客的篇幅了。1.学习程序的第一步,先让程序跑起来,看看结果,这样就会有直观的感受。caffe的官网上caffe | deep learning framework 提供了很多的examples,你可以很容易地开始训练一些已有的经典模型,如lenet。我建议先从lenet mnist tutorial开始,因为数据集很小,网络也很小但很经典,用很少的时间就可以跑起来了。当你看到terminal刷拉拉的一行行输出,看到不断减少的loss和不断上升的accuracy,训练结束你得到了99+%的准确率,感觉好厉害的样子。你可以多跑跑几个例子,熟悉一下环境和接口。2.单步调试,跟着caffe在网络里流动当玩了几天之后,你对caffe的接口有点熟悉了,对已有的例子也玩腻了,你开始想看看具体是怎么实现的了。我觉得最好的方法是通过单步调试的方式跟着程序一步一步的在网络里前向传播,然后再被当成误差信息传回来。caffe就像一个你平常编程中project,你可以使用ide或者gdb去调试它,这里我们不细说调试的过程。你可以先跟踪前向传播的过程,无非就是从高层次到低层次的调用forward函数,solver->net->layer->specific layer (convolution等…).后向传播也类似,但因为你对caffe里面的各种变量运算不熟悉,当你跟踪完前向传播时可能已经头晕眼花了,还是休息一下,消化一下整个前向传播的流程。刚刚开始你没有必要对每个layer的计算细节都那么较真,大概知道程序的运算流程就好,这样你才可以比较快的对caffe有个大体的把握。3.个性化定制caffe到这里,你已经可以说自己有用过caffe了,但是还不能算入门,因为你还不知道怎么修改源码,满足自己特定的需求。我们很多时候都需要自己定义新的层来完成特定的运算,这时你需要在caffe里添加新的层。你一开肯定无从下手,脑子一片空白。幸运的是caffe github上的wiki development · bvlc/caffe wiki · github已经有了教程了,而且这是最接近latest caffe的源码结构的教程,你在网上搜到的blog很多是有点过时的,因为caffe最近又重构了代码。你可以跟着它的指导去添加自己的层。虽然你已经知道要在哪里添加自己的东西了,但你遇到最核心的问题是如何写下面这四个函数。forward_cpu()forward_gpu()backward_cpu()backward_gpu()你可以先模仿已有的层去实现这四个函数,而且我相信forward函数很快就可以写出来了,但backward的还是一头雾水。这时我们就要补补神经网络里最核心的内容了——backpropagation.4.理解并实现backpropagation这个我觉得是与平台无关的,不管你是使用caffe、torch 7,还是theano,你都需要深刻理解并掌握的。因为我比较笨,花了好长时间才能够适应推导中的各种符号。其实也不难,就是误差顺着chain rule法则流回到前面的层。我不打算自己推导后向传播的过程,因为我知道我没有办法将它表达得很好,而且网上已经有很多非常好的教程了。下面是我觉得比较好的学习步骤吧。从浅层的神经网络(所谓的全连接层)的后向传播开始,因为这个比较简单,而且现在我们常说的cnn和lstm的梯度计算也最终会回归到这里。第一个必看的是ng深入浅出的ufldl教程ufldl tutorial,还有中文版的,这对不喜欢看英语的同学是个好消息。当然你看一遍不理解,再看一遍,忘了,再看,读个几遍你才会对推导过程和数学符号熟悉。我头脑不大行,来来回回看了好多次。当然,ufldl的教程有点短,我还发现了一个讲得更细腻清晰的教程, michael nielsen写的neural networks and deep learning。它讲得实在太好了,以至于把我的任督二脉打通了。在ufldl的基础上读这个,你应该可以很快掌握全连接层的反向传播。最后在拿出standford大牛karpathy的一篇博客hacker’s guide to neural networks,这里用了具体的编程例子手把手教你算梯度,并不是推导后向传播公式的,是关于通用梯度计算的。用心去体会一下。这时你跃跃欲试,回去查看caffe源码里convolution层的实现,但发现自己好像没看懂。虽说卷积层和全连接层的推导大同小异,但思维上还是有个gap的。我建议你先去看看caffe如何实现卷积的,caffe作者贾扬清大牛在知乎上的回答在 caffe 中如何计算卷积?让我茅塞顿开。重点理解im2col和col2im.这时你知道了convolution的前向传播,还差一点就可以弄明白后向传播怎么实现了。我建议你死磕caffe中convolution层的计算过程,把每一步都搞清楚,经过痛苦的过程之后你会对反向传播有了新的体会的。在这之后,你应该有能力添加自己的层了。再补充一个完整的添加新的层的教程making a caffe layer ? computer vision enthusiast。这篇教程从头开始实现了一个angle to sine cosine layer,包含了梯度推导,前向与后向传播的cpu和gpu函数,非常棒的一个教程。最后,建议学习一下基本的gpu cuda编程,虽然caffe中已经把cuda函数封装起来了,用起来很方便,但有时还是需要使用kernel函数等cuda接口的函数。这里有一个入门的视频教程,讲得挺不错的nvidia cuda初级教程视频。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 1553299181@qq.com 举报,一经查实,本站将立刻删除。
如若转载,请注明出处:https://www.lmux.cn/1290.html