人工智能网

 找回密码
 立即注册
楼主: click4i

[神经网络] 【技术创新】 ANN Online Learning

[复制链接]
发表于 2015-3-2 14:14:00 | 显示全部楼层
下层的特征都让是可以通用的啊,也是可以固化的啊,
下层的特征和高层的分类用途基本无关,
甚至不同的数据集都是通用的
我早就说过这个问题啊
http://tieba.baidu.com/p/3536134311?pid=63245905127&cid=65054666350#65054666350
人眼识别图像的最下几层应该就是通用的,优化过的。
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:42:00 | 显示全部楼层
cnn怎么无监督?
2.b的想法不知道怎么实施,增加一个节点,上下的权值都乱了
单一目标,固定结构的 Online Learning都做不到啊,
高层目标修改,网络结构也修改就更难了。
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|人工智能实验室

GMT+8, 2024-4-28 21:19 , Processed in 0.012784 second(s), 6 queries , Redis On.

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表