您好,欢迎光临有路网!
机器学习方法
QQ咨询:
有路璐璐:

机器学习方法

  • 作者:蒋艳凰
  • 出版社:电子工业出版社
  • ISBN:9787121090059
  • 出版日期:2009年08月01日
  • 页数:282
  • 定价:¥39.00
  • 猜你也喜欢

    分享领佣金
    手机购买
    城市
    店铺名称
    店主联系方式
    店铺售价
    库存
    店铺得分/总交易量
    发布时间
    操作

    新书比价

    网站名称
    书名
    售价
    优惠
    操作

    图书详情

    内容提要
    本书比较全面系统地介绍了机器学习的方法和技术,不仅详细阐述了许多经典的学习方法,还讨论了一些有生命力的新理论、新方法。全书共分为13章,分别介绍了机器学习的基本概念、*近邻规则、贝叶斯学习、决策树、基于事例推理的学习、关联规则学习、神经网络、支持向量机、遗传算法、集成学习、纠错输出编码、聚类分析、强化学习。各章对原理的叙述力求概念清晰、表达准确,突出理论联系实际,富有启发性,易于理解。
    本书可作为高等院校计算机、自动化、电子和通信等专业研究生和高年级本科生的教材和参考书。本书内容对从事人工智能、机器学习、数据挖掘、模式识别等相关领域研究的科技人员具有较好的参考价值。
    文章节选
    第1章 绪论
    1.5 学习算法的评价
    评价学习算法优劣*常用的标准有:预测精度(泛化能力)、学习与分类速度、可理解性。在精度方面,几乎所有的应用领域都希望预测精度越高越好,因此提高泛化能力是人们永远的追求。在速度方面,人们总是希望处理速度越快越好,尤其是大规模监督学习问题,学习或分类速度太慢的算法很难投入使用,加快处理速度也是人们永远的追求。分类器的可理解性是指,学习后得到的分类器的行为是否能够被用户理解。由于学习系统只是一种辅助手段,*终的决策还要由用户来做,因此,可理解性强的分类器一般更容易被用户接受。
    在实际应用中,分类器很难在这三个方面都表现突出,例如,利用BP神经网络算法获得的分类器预测精度高,分类速度也很快,但其训练过程慢,而且可理解性也很差。因此,用户常常需要在这三个方面之间进行权衡,以便更好地满足应用需求。下面我们对分类器的常用评价方法进行简单介绍。
    1.5.1 *短描述长度
    *短描述长度准则(Minimum Description Length Principle,MDLP)是1983年由Rissanen首先提出的(Rissanen l983),并应用于字符串的随机复杂性研究(Rissanen1986)。Quinlan和Rivest将MDLP用于决策树的创建(Quinlah 1989)。……
    目录
    第1章 绪论
    1.1 机器学习概念
    1.2 机器学习系统
    1.2.1 学习系统模型
    1.2.2 机器学习系统结构
    1.3 机器学习方法分类
    1.3.1 监督学习
    1.3.2 非监督学习
    1.3.3 强化学习
    1.4 一般性定理与规则
    1.4.1 大多数原则
    1.4.2 奥卡姆剃刀原理
    1.4.3 无免费午餐定理
    1.5 学习算法的评价
    1.5.1 *短描述长度
    1.5.2 预测精度分析
    1.5.3 交叉验证法
    1.6 本书各章概要
    第2章 *近邻规则
    2.1 *近邻分类
    2.1.1 k-NN规则的思想
    2.1.2 k-NN的距离度量
    2.1.3 k-NN算法应用示例
    2.2 k-NN算法的缺陷及其改进
    2.2.1 k-NN算法的计算复杂度
    2.2.2 降维法
    2.2.3 预建结构法
    2.2.4 训练集裁减法
    第3章 贝叶斯学习
    3.1 概率论基础
    3.1.1 随机事件
    3.1.2 事件间的关系与运算
    3.1.3 概率的定义与性质
    3.1.4 统计概率
    3.1.5 条件概率
    3.1.6 概率密度
    3.1.7 正态分布
    3.2 贝叶斯定理
    3.3 贝叶斯定理和概念学习
    3.4 极大似然和*小误差平方假设
    3.5 贝叶斯*优分类器
    3.6 简单贝叶斯分类器
    3.7 贝叶斯网络
    3.7.1 贝叶斯网络基本概念
    3.7.2 因果关系网
    3.7.3 贝叶斯网络
    3.7.4 联合概率
    3.7.5 D分离
    3.7.6 贝叶斯网络的推理模式
    3.8 主观贝叶斯方法
    3.8.1 规则的不确定性
    3.8.2 证据的不确定性
    3.8.3 推理计算
    3.9 贝叶斯学习的优缺点
    第4章 决策树
    4.1 决策树的创建
    4.1.1 分而治之的思想
    4.1.2 决策树生成算法
    4.2 分枝划分标准
    4.2.1 测试条件
    4.2.2 直接划分法
    4.2.3 信息熵增益
    4.2.4 增益比
    4.2.5 Gini系数
    4.2.6 *短距离划分
    4.2.7 *短描述长度
    4.3 连续属性离散化
    ……
    第5章 基于事例推理的学习
    第6章 关联规则学习
    第7章 神经网络
    第8章 支持向量机
    第9章 遗传算法
    第10章 集成学习
    第11章 基于纠错编码的机器学习
    第12章 聚类分析
    第13章 强化学习
    附录A 数据集描述
    参考文献

    与描述相符

    100

    北京 天津 河北 山西 内蒙古 辽宁 吉林 黑龙江 上海 江苏 浙江 安徽 福建 江西 山东 河南 湖北 湖南 广东 广西 海南 重庆 四川 贵州 云南 西藏 陕西 甘肃 青海 宁夏 新疆 台湾 香港 澳门 海外