分类目录归档:Tech Article

JavaScript 编程精解 3rd 勘误

原文链接:https://github.com/wizardforcel/eloquent-js-3e-zh

第五章 高阶函数

原文:As an example, let’s write code that finds the average year of origin for living and dead scripts in the data set.

译文:举个例子,我们编写一段代码,找出数据集中男人和女人的平均年龄。

勘误:举个例子,我们编写一段代码,找出数据集中还存活或已经不再使用的脚本平均存活年限。

 

 

记Struts中的奇葩报错

1.自己的图书馆系统中,明明定义的默认进入名字叫login会跳转到login.jsp的action,结果进入的时候报错,说是index.jsp页面有空指针。

一直以为自己struts.xml配置错了,错误设置默认action为名叫index的action,再三确认是login还是报错。暴力从struts.xml删除部分action看看到底调用了哪个action,结果发现既没有调用login也没有调用index,这才恍然大悟。

继续阅读

Trend prediction in temporal bipartite networks: the case of Movielens, Netflix, and Digg笔记

文章在进行流行性预测的方法主要是通过时序商品-用户二部图和社交网络,对每个item预测流行性分数,最后根据商品流行性分数进行排序。数据集:Netflix、Movielens和Digg(前两个随机选取rating超过20的user,保留其所有ratings。3分以上定为喜欢)。评价指标:Top 100商品的准确率(Pn)和Top 100商品的新颖商品预测准确率(Qn)。

继续阅读

Visualizing and Understanding Convolutional Networks笔记

本文为20141024周报。

在所有深度网络中,卷积神经网和图像处理最为密切相关,卷积网络在很多图片分类竞赛中都取得了很好的效果,但卷积网调参过程很不直观,很多时候都是碰运气。为此,卷积网络发明者Yann LeCun的得意门生Matthew Zeiler在2013年专门写了一篇论文,阐述了如何用反卷积网络可视化整个卷积网络,并进行分析和调优。

在所有深度网络中,卷积神经网和图像处理最为密切相关,卷积网络在很多图片分类竞赛中都取得了很好的效果,但卷积网调参过程很不直观,很多时候都是碰运气。为此,卷积网络发明者Yann LeCun的得意门生Matthew Zeiler在2013年专门写了一篇论文,阐述了如何用反卷积网络可视化整个卷积网络,并进行分析和调优。 继续阅读

WordPress网站如何屏蔽恶意攻击和恶意采集?

国庆节第二天一起床,发现博客就被刷了40多米,再一看CPU利用时间:22分钟。瞬间觉得不对劲,流量异常。

首先怀疑是蜘蛛最近来的勤的缘故,果断去看了下百度抓取频次,由于没有实时显示,只有最近一次9月30日一天抓了60次,觉得有点高。一查,果然百度的收录页面已经到7个了,脱离了只收录首页的尴尬。想限制抓取频次又怕耽误页面收录,最后觉得可能过两天就好了。想说,一个百度应该不会用掉那么多流量,于是又去看日志,这不看不知道,一看吓一跳。

整个九月我日志只有20K行,但是国庆节刚过去一天多,日志就有10K行。于是想说,人品大爆发?所有的搜索引擎蜘蛛都来了?但是看了日志,呵呵。恶意攻击。 继续阅读

Going deeper with convolutions笔记

本文是20140926的周报,没写完,后补全。

Abstract

本文提出了一种新的分类和检测的新网络。该网络最大的特点就是提升了计算资源的利用率。在网络需要的计算不变的前提下,通过工艺改进来提升网络的宽度和深度。最后基于Hebbian Principle和多尺寸处理的直觉来提高性能。在ILSVRC-2014中提交了这种网络,叫GoogLeNet有22层。

Introduction

GoogLeNet 只用了比[9]少12倍的参数,但正确率更高。本文最大的工作是通过CNN和普通的计算机视觉结合,类似于R-CNN[6]。因为算法的ongoing traction of mobile和嵌入式计算,算法的效率变得很重要。也导致了本文不会使用绝对的数量。本文将会关注CV的深度神经网络“Inception”。本文既将Inception提升到了一个新的高度,也加深了网络的深度。 继续阅读

图像分类中的pooling是对特征的什么来操作的,结果是什么?

本文部分参考了:http://www.zhihu.com/question/23437871

卷积层是对图像的一个邻域进行卷积得到图像的邻域特征,亚采样层就是使用pooling技术将小邻域内的特征点整合得到新的特征。

pooling的结果是使得特征减少,参数减少,但pooling的目的并不仅在于此。pooling目的是为了保持某种不变性(旋转、平移、伸缩等),常用的有mean-pooling,max-pooling和Stochastic-pooling三种。 继续阅读

Very Deep Convolutional Networks for Large-Scale Image Recognition笔记

本文是20140919的周报,没写完,后补全。

Abstract

本文研究了CNNs的深度对于其准确率的影响,最后通过评估发现,当权值层达到16-19层的时候,能够在传统框架的基础上得到有效提高。

Introduction

ILSVRC-2013的冠军利用了更小的接收窗口和在第一个卷积层更小的步长。本文关注了CNNs的另一方面——深度。为了这个目的,作者修改了一些参数,添加了一些卷积层。 继续阅读

ImageNet Classification with Deep Convolutional Neural Networks笔记(摘要版)

本笔记为论文的摘要版,详细数据和论文详解见: http://www.gageet.com/2014/09140.php

本文训练了一个深度卷积神经网络,来将ILSVRC-2010中1.2M的高分辨率图像数据分为1000类。测试结果,Top-1和Top-5的错误率分别为37.5%和17%,优于当时最优的水平。后来作者利用该种模型的变体参与了ILSVRC-2012比赛,以Top-5错误率15.3%遥遥领先亚军的26.2%。最后文章发表于NIPS 2012。

该神经网络包含60M参数和650K神经元,用5个卷积层(其中某些层与亚采样层连接)、三个全连接层(包括一个1K门的输出层)。为使训练更快,文章采用非饱和神经元,包括了大量不常见和新的特征来提升性能,减少训练时间(详见:三 结构)。并利用了一个高效的GPU应用进行卷积运算。在全连接层中,为避免过拟合,文章采用了一种叫做“dropout”的方法(详见:四 降低过拟合)。 继续阅读