查看: 4892|回复: 1

机器学习--降维

[复制链接]
论坛徽章:
9
蜘蛛蛋
日期:2012-05-15 22:04:44比亚迪
日期:2013-11-27 11:47:28日产
日期:2013-12-17 15:51:03优秀写手
日期:2013-12-18 09:29:082014年新春福章
日期:2014-02-18 16:44:08马上有对象
日期:2014-02-18 16:44:08马上有车
日期:2014-03-01 23:04:212015年新春福章
日期:2015-03-04 14:53:162015年新春福章
日期:2015-03-06 11:58:39
发表于 2014-7-10 16:39 | 显示全部楼层 |阅读模式
本帖最后由 南北思静 于 2014-7-16 15:44 编辑

今天看书发现有段话总结的很好,抄录于此.
The  following are several good reasons that are still in practice for trimming down the dimensions as much as possible:
• Superfluous features can irritate or mislead the learner. This is not the case with all machine learning methods (for example, Support Vector Machines love high-dimensional spaces). But most of the models feel safer with less dimensions.
• Another argument against high-dimensional feature spaces is that more features mean more parameters to tune and a higher risk of overfitting.
• The data we retrieved to solve our task might just have artificial high dimensions, whereas the real dimension might be small.
• Less dimensions mean faster training and more variations to try out,resulting in better end results.
• If we want to visualize the data, we are restricted to two or three dimensions. This is known as visualization.


大概来说 降维的方法分两大类:
1、Feature Select
     该类又分filter和wrap两类
2、Feature Extract

论坛徽章:
2
2015年新春福章
日期:2015-03-04 14:55:132015年新春福章
日期:2015-03-06 11:59:47
发表于 2014-12-24 10:45 | 显示全部楼层
是这样的啊。。。

使用道具 举报

回复

您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

DTCC2020中国数据库技术大会 限时9.5折

【架构革新 高效可控】2020年8月17日~19日第十一届中国数据库技术大会将在北京隆重召开。

大会设置2大主会场,20+技术专场,将邀请超百位行业专家,重点围绕数据架构、AI与大数据、传统企业数据库实践和国产开源数据库等内容展开分享和探讨,为广大数据领域从业人士提供一场年度盛会和交流平台。

http://dtcc.it168.com


大会官网>>
TOP技术积分榜 社区积分榜 徽章 团队 统计 知识索引树 积分竞拍 文本模式 帮助
  ITPUB首页 | ITPUB论坛 | 数据库技术 | 企业信息化 | 开发技术 | 微软技术 | 软件工程与项目管理 | IBM技术园地 | 行业纵向讨论 | IT招聘 | IT文档
  ChinaUnix | ChinaUnix博客 | ChinaUnix论坛
CopyRight 1999-2011 itpub.net All Right Reserved. 北京盛拓优讯信息技术有限公司版权所有 联系我们 
京ICP备09055130号-4  北京市公安局海淀分局网监中心备案编号:11010802021510 广播电视节目制作经营许可证:编号(京)字第1149号
  
快速回复 返回顶部 返回列表