lpt

追风的女孩,越努力,越幸运

读书笔记:花书 第2章 线性代数

vector, tensor, SVD, PCA, ...

花书概念 第2章 线性代数 整理人:luopengting 代价函数 cost function 18,53,55,56,63,75,83,94-96,106,107,110-117,119,121,146,149,150,154,169,170,174-181,193,194,197,324,362,375,411,420,428,429 代价函数,也成损失函数...

学习记录:优化算法介绍与实践

BGD, SGD, Mom, Adagrad, RMSProp, Adadelta, Adam

优化算法 优化算法,查了一些资料,看了沐神的优化算法。学习了一番,并做如下记录。转载请注明萝卜-lpt。 局部最小值 首先要区分局部最小值和全局最小值,这个应该大家都知道。 鞍点 梯度接近0或为0是因为当前解为局部最小值,或者它是个鞍点。它类似于“马鞍”,就如下图中心的那个点,有些优化算法会停滞在鞍点,不会继续往下探索。 经典优化算法 实验用到的是自己生成的数据集,采...

读论文:A Survey of Model Compression and Acceleration for Deep Neural Networks

关于神经网络的模型压缩和加速的综述

作者:Yu Cheng / Duo Wang / Pan Zhou / Tao Zhang 发表时间:2017-10-23 论文链接:https://arxiv.org/pdf/1710.09282.pdf Abstract 当前的DCNN模型计算复杂度高且存储密集,很难在低内存资源的设备或具有严格延迟要求的应用中部署它们。因此,不降低模型性能情况下,希望能够做到模型的压缩和加速。近年...

Hello 2018

"Hello World, Hello Blog"

“Yeah It’s on. ” 前言 lpt 的 Blog 就这么开通了。 感谢 感谢Hux. 感谢CSDN博主窗外蟋蟀的blog. 教程见窗外蟋蟀的blog.