请选择 进入手机版 | 继续访问电脑版

人工智能论坛

 找回密码
 立即注册
楼主: click4i

[神经网络] 【技术创新】 ANN Online Learning

[复制链接]
发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:49:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2015-3-2 22:55:00 | 显示全部楼层
我觉得目前常见的数据集存在的问题是分辨率过低,样本少
底层的通用性也体现不出来
我建议至少达到352x240 vcd 分辨率
从大量的视频中获取自然图像
可以合作训练出通用的底层,并开源。
无监督的。
这样的工作非常有意义,
理论上
1 可以进一步明白自然图像视觉的底层特征
2 研究合作和增值的训练
3 为今后的高层特征的应用奠定基础,大家都不用从0开始了
4 构架和技术比较简单
回复 支持 反对

使用道具 举报

发表于 2015-3-3 10:56:00 | 显示全部楼层
在下的思路把DNN的OL拆分为两步:

#1 features learning的OL,对应您说的复用低层的特征;
#2 discriminative层的OL。
图1对应#1,features的OL关键是引入新的基本元素(新样本的加入必定会带来新元素),即新features

图2对应#2,复用之前的hiearchical features学习每个类的关键特征(discriminative features),即该类区别其他所有类的显著特征。当新的类Z加入时,学习Z的显著特征fz,使得fz的与之前任何一个类的显著特征差异度最大(注意这里比较的是特征的距离,不是样本)

如此类推。许多细节还没想好,欢迎指教^ ^




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|积分充值|小黑屋|手机浏览|人工智能实验室 ( 苏ICP备12079930号

GMT+8, 2017-10-19 04:12 , Processed in 0.240832 second(s), 17 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表