人工智能网

 找回密码
 立即注册
查看: 20869|回复: 99

[神经网络] 【技术创新】 ANN Online Learning

[复制链接]
发表于 2015-2-22 22:50:00 | 显示全部楼层 |阅读模式
本楼是建来探讨有关基于人工神经网络(ANN)的 online learning 机制。

问题陈述: 近年来的DL(deep learning)达到相当大的进展,不过终究大体是批量的算法。也就是说假设你建了个DL系统花了两个星期和100台服务器从五十万张图片学会辨认30类的物体得到满意成效之后,如果你要让它进一步也学会辨认新一批另类物体的话,那么你基本上就必须将所有的图片合并起来然后从头来过。
Online learning (亦称incremental learning,以下简称OL) 的目的是要让一个做学习的系统能够长期且零碎的接受新的学习材料,并有效的累积并逐步的调整以前学到的知识。在学习资料无法一次性获得的情形下,OL系统的长期学习效率会要比批量的算法好得多。
OL算法的另一个好处是可能可以用来支持大规模的分布式学习(不同于用多个处理器做并行计算),例如透过互联网以大量计算机在不同时地分别做学习,然后将学习结果有效的合并起来。OL技术在构建长期运行并持续学习的大型智能系统时是不可或缺的。

研究范围:以当前的DL算法为基本蓝图从事创新。能力所及也可能涵盖Transfer learning。实验方面以CNN和图片识别为重点。暂不涉及序列学习如LSTM等。

问题难度:尖端课题。需AI专业或研究生级别知识经验。欢迎对ANN的理论和实践有经验的踊跃参与发言讨论。

目标:
1. 研究出个可行的OL算法, 可行的话并着手开发程序做实际的实验。
2. 以本楼作为相关论文代码或资料的收集分享点,并对于其他算法进行评估。
3. 试试看是不是在这论坛里可以聚集能人共同做出有意思的东西出来。不行即沉。
回复

使用道具 举报

 楼主| 发表于 2015-2-22 22:57:00 | 显示全部楼层
以下是一些相关论文。欢迎大家提供资料,或另建层在本楼的大方向之下讨论其优劣点及可能可以改进之处。
回复 支持 反对

使用道具 举报

发表于 2015-2-23 01:06:00 | 显示全部楼层
Unlike SVM-based approaches, neural networks embed feature extraction and classification in one coherent architecture and within the same model. A consequence is that the modification of parts of the parameter space immediately affects the rest of the model globally. For instance, the so-called “catastrophic forgetting” problem [10] refers to the destruction of existing features learned from earlier data, when the model is exclusively trained with data of new classes.
所以说非DL类的Transfer Learning算法比如adaboost之类的是不可能对DL的transfer learning提供帮助的?
回复 支持 反对

使用道具 举报

发表于 2015-2-23 08:59:00 | 显示全部楼层
现在ANN是根据所给目标物体来训练表征和分类一体的网络/图结构,而这个结构固化后对其他信息的表征和分类肯定不能达到最优。像生物神经系统,也像RNN里的LSTM那样,应该细化功能,采用模块组合的方式来达到通用目的
回复 支持 反对

使用道具 举报

发表于 2015-2-23 10:18:00 | 显示全部楼层
你给的文章Online Incremental Feature Learning with Denoising Autoencoders说的方法,仍然是需要存储旧样本的。不是把旧样本学完就可以扔掉的那种。
回复 支持 反对

使用道具 举报

发表于 2015-2-23 10:21:00 | 显示全部楼层
大体上,需要存储(或变相存储)样本的算法都可以在线学习,不存储样本的方法都不行。
回复 支持 反对

使用道具 举报

发表于 2015-2-23 23:44:00 | 显示全部楼层
我想过这个问题:
ANN只保存了权值,所以信息不够,不能online learning ,
1k个样本形成的权值,和100k个样本形成的权值怎么能一回事呢?
可以扩展权值的概念,
不仅仅是一个权值,每个权值还带一个权值的可信度参数
或者把权值扩展成一个区间分布,类似模糊数学的概念。
再用抽样的概念来做ff和bp
但细节还没想好啊
回复 支持 反对

使用道具 举报

发表于 2015-2-24 02:10:00 | 显示全部楼层
设想这样一种逆循环deep autoencoder(DAEC),用表征层-逆向激活输入层-在顺向反馈激活表征层,把表征层的两次激活误差作为cost function加入到总的cost function中去。
当面临incremental learning任务时,建立新的表征层节点,只使用新的训练集,而将旧的神经网络作为一个DAEC,作为总的cost function的一部分(也可以理解为超低成本地使用了旧训练集)。

问题在于DCNN并不能形成autoencoder的结构。或许可以先用非CNN类的网络实验一下。
回复 支持 反对

使用道具 举报

发表于 2015-2-24 02:38:00 | 显示全部楼层
第二篇文章是无监督学习,和第一篇不是一回事
回复 支持 反对

使用道具 举报

发表于 2015-2-24 04:57:00 | 显示全部楼层
一堆相片,用人工神经降维,把几亿兆大小的一堆相片化为几兆大小的网络参数(网络能把几亿兆的图片相互区分),这看似几亿兆的相片与几兆的神经网络是等价的,但实质上并不是这样。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|人工智能实验室

GMT+8, 2024-4-28 00:24 , Processed in 0.013401 second(s), 8 queries , Redis On.

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表