您好,欢迎光临有路网!
深度学习与Python实现及应用
QQ咨询:
有路璐璐:

深度学习与Python实现及应用

  • 作者:郭彤颖、薛亚栋、李娜、刘冬莉 等
  • 出版社:清华大学出版社
  • ISBN:9787302599418
  • 出版日期:2022年04月01日
  • 页数:0
  • 定价:¥59.00
  • 分享领佣金
    手机购买
    城市
    店铺名称
    店主联系方式
    店铺售价
    库存
    店铺得分/总交易量
    发布时间
    操作

    新书比价

    网站名称
    书名
    售价
    优惠
    操作

    图书详情

    内容提要
    本书是对深度学习感兴趣的读者的入门图书,主要介绍深度学习算法和Python应用实践两部分。在深度学习算法部分,将从逻辑回归、浅层神经网络、深层神经网络、卷积神经网络、深度卷积网络、目标检测算法、循环序列模型等方面介绍深度学习的核心算法。在Python应用实践部分,将主要介绍Python基础语法,numpy基本用法,以及Python实现深度学习算法三部分。本书理论和实践结合,不仅让读者了解算法理论,更让读者学会如何利用计算机编程语言解决实际问题。 本书适合作为高等院校人工智能及相关专业的教材,也可作为从事人工智能领域的专业研究人员和工程技术人员的参考书。
    目录
    第 1章 绪 论 1 1.1 深度学习简介 2 1.2 神经网络 3 1.2.1 人脑神经网络 3 1.2.2 人工神经网络 4 1.3 神经网络的发展历史 5 1.4 常用的深度学习框架 6 1.5 编程环境的安装 8 1.5.1 安装 Anaconda 8 1.5.2 安装CUDA 9 1.5.3 安装TensorFlow 14 1.5.4 安装常用编辑器 17 第2章 机器学习基础 18 2.1 基本概念 19 2.2 机器学习的三个基本要素 20 2.2.1 模型 20 2.2.2 学习准则 21 2.2.3 优化算法 24 2.3 机器学习的简单示例——线性回归 27 2.4 偏差-方差分解 31 2.5 机器学习算法的类型 34 2.6 评价指标 35 2.7 线性模型 37 2.7.1 线性判别函数和决策边界 38 2.7.2 Logistic 回归 41 2.7.3 Softmax 回归 43 2.7.4 感知器 45 第3章 前馈神经网络 51 3.1 神经元 51 3.1.1 Sigmoid 型函数 52 3.1.2 ReLU 函数 55 3.1.3 Swish 函数 57 3.1.4 GELU 函数 57 3.1.5 Maxout 单元 58 3.2 网络结构 58 3.2.1 前馈网络 58 3.2.2 记忆网络 58 3.2.3 图网络 59 3.3 前馈神经网络 59 3.3.1 通用近似定理 61 3.3.2 应用到机器学习 61 3.3.3 参数学习 62 3.4 反向传播算法 63 3.5 自动梯度计算 66 3.5.1 数值微分 66 3.5.2 符号微分 67 3.5.3 自动微分 67 3.6 优化问题 70 3.6.1 非凸优化问题 71 3.6.2 梯度消失问题 71 第4章 卷积神经网络 73 4.1 从全连接层到卷积 73 4.1.1 不变性 74 4.1.2 限制多层感知机 75 4.1.3 卷积 76 4.1.4 回顾“沃尔多在哪里” 76 4.2 图像卷积 77 4.2.1 互相关运算 77 4.2.2 卷积层 79 4.2.3 图像中目标的边缘检测 79 4.2.4 学习卷积核 81 4.2.5 互相关运算和卷积运算 82 4.2.6 特征映射和感受野 82 4.3 填充和步幅 82 4.3.1 填充 83 4.3.2 步幅 84 4.4 多输入多输出通道 85 4.4.1 多输入通道 86 4.4.2 多输出通道 87 4.4.3 1×1 卷积层 88 4.5 池化层 89 4.5.1 *大池化层和平均池化层 89 4.5.2 填充和步幅 91 4.5.3 多个通道 92 4.6 卷积神经网络 93 4.6.1 LeNet 93 4.6.2 训练 LeNet 95 第5章 现代卷积神经网络 98 5.1 深度卷积神经网络 98 5.1.1 学习表征 99 5.1.2 AlexNet 101 5.1.3 读取数据集 104 5.1.4 训练AlexNet 104 5.2 使用块的网络 105 5.2.1 VGG 块 105 5.2.2 VGG 网络 106 5.2.3 训练VGG 108 5.3 网络中的网络 108 5.3.1 NiN 块 109 5.3.2 NiN 模型 110 5.3.3 训练NiN 111 5.4 含并行连结的网络 111 5.4.1 Inception块 112 5.4.2 GoogLeNet 模型 113 5.4.3 训练GoogLeNet 116 5.5 归一化算法 116 5.5.1 训练深层网络 116 5.5.2 批量归一化层 118 5.5.3 从零实现批量归一化层 118 5.5.4 使用批量归一化层的 LeNet 120 5.5.5 简明实现 122 5.5.6 争议 123 5.6 残差网络 123 5.6.1 函数类 124 5.6.2 残差块 124 5.6.3 ResNet模型 127 5.6.4 训练 ResNet 129 5.7 稠密连接网络 130 5.7.1 从ResNet到DenseNet 130 5.7.2 稠密块体 131 5.7.3 过渡层 132 5.7.4 DenseNet模型 133 5.7.5 训练DenseNet 134 第6章 循环神经网络 135 6.1 序列模型 135 6.1.1 统计工具 136 6.1.2 序列模型的训练 138 6.1.3 序列模型的预测 140 6.2 文本预处理 143 6.2.1 读取数据集 143 6.2.2 标记化 144 6.2.3 词汇 145 6.2.4 把所有的东西放在一起 146 6.3 语言模型和数据集 147 6.3.1 学习语言模型 148 6.3.2 马尔可夫模型与 n 元语法 149 6.3.3 自然语言统计 149 6.3.4 读取长序列数据 152 6.4 循环神经网络 156 6.4.1 无隐藏状态的神经网络 156 6.4.2 具有隐藏状态的循环神经网络 157 6.4.3 基于循环神经网络的字符级语言模型 158 6.4.4 困惑度 159 6.5 循环神经网络的从零开始实现 160 6.5.1 独热编码 161 6.5.2 初始化模型参数 161 6.5.3 循环神经网络模型 162 6.5.4 循环神经网络模型的预测 163 6.5.5 梯度裁剪 164 6.5.6 循环神经网络模型的训练 165 6.6 循环神经网络的简洁实现 168 6.6.1 定义模型 168 6.6.2 训练与预测 169 6.7 通过时间反向传播 170 6.7.1 循环神经网络的梯度分析 171 6.7.2 通过时间反向传播细节 173 第7章 网络优化与正则化 176 7.1 网络优化 176 7.2 优化算法 178 7.2.1 小批量梯度下降 178 7.2.2 学习率衰减 179 7.2.3 梯度方向优化 181 7.2.4 优化算法小结 184 7.3 参数初始化 185 7.4 数据预处理 186 7.5 逐层归一化 188 7.5.1 批量归一化 189 7.5.2 层归一化 190 7.5.3 其他归一化方法 191 7.6 超参数优化 192 7.6.1 网格搜索 192 7.6.2 随机搜索 193 7.6.3 贝叶斯优化 193 7.6.4 动态资源分配 194 7.7 网络正则化 195 7.7.1 和 正则化 195 7.7.2 权重衰减 196 7.7.3 提前停止 197 7.7.4 丢弃法 197 7.7.5 数据增强 199 7.7.6 标签平滑 199 7.8 总结 200 第8章 实战演练 201 8.1 TensorFlow的MNIST手写数字分类的实现 201 8.1.1 数据预处理 201 8.1.2 构建及训练模型 202 8.1.3 评估准确率 207 8.1.4 模型的应用与可视化 208 8.2 车辆识别 209 8.2.1 要解决的问题 210 8.2.2 YOLO 210 8.2.3 测试已经训练好的YOLO模型 220 8.3 人脸识别 223 8.3.1 简单的人脸验证 225 8.3.2 将人脸图像编码为128位的向量 225 8.3.3 加载训练好的模型 229 8.3.4 模型的应用 230 ?? ?? ?? 第 1章 绪 论 1 1.1 深度学习简介 2 1.2 神经网络 3 1.2.1 人脑神经网络 3 1.2.2 人工神经网络 4 1.3 神经网络的发展历史 5 1.4 常用的深度学习框架 6 1.5 编程环境的安装 8 1.5.1 安装 Anaconda 8 1.5.2 安装CUDA 9 1.5.3 安装TensorFlow 14 1.5.4 安装常用编辑器 17 第2章 机器学习基础 18 2.1 基本概念 19 2.2 机器学习的三个基本要素 20 2.2.1 模型 20 2.2.2 学习准则 21 2.2.3 优化算法 24 2.3 机器学习的简单示例——线性回归 27 2.4 偏差-方差分解 31 2.5 机器学习算法的类型 34 2.6 评价指标 35 2.7 线性模型 37 2.7.1 线性判别函数和决策边界 38 2.7.2 Logistic 回归 41 2.7.3 Softmax 回归 43 2.7.4 感知器 45 第3章 前馈神经网络 51 3.1 神经元 51 3.1.1 Sigmoid 型函数 52 3.1.2 ReLU 函数 55 3.1.3 Swish 函数 57 3.1.4 GELU 函数 57 3.1.5 Maxout 单元 58 3.2 网络结构 58 3.2.1 前馈网络 58 3.2.2 记忆网络 58 3.2.3 图网络 59 3.3 前馈神经网络 59 3.3.1 通用近似定理 61 3.3.2 应用到机器学习 61 3.3.3 参数学习 62 3.4 反向传播算法 63 3.5 自动梯度计算 66 3.5.1 数值微分 66 3.5.2 符号微分 67 3.5.3 自动微分 67 3.6 优化问题 70 3.6.1 非凸优化问题 71 3.6.2 梯度消失问题 71 第4章 卷积神经网络 73 4.1 从全连接层到卷积 73 4.1.1 不变性 74 4.1.2 限制多层感知机 75 4.1.3 卷积 76 4.1.4 回顾“沃尔多在哪里” 76 4.2 图像卷积 77 4.2.1 互相关运算 77 4.2.2 卷积层 79 4.2.3 图像中目标的边缘检测 79 4.2.4 学习卷积核 81 4.2.5 互相关运算和卷积运算 82 4.2.6 特征映射和感受野 82 4.3 填充和步幅 82 4.3.1 填充 83 4.3.2 步幅 84 4.4 多输入多输出通道 85 4.4.1 多输入通道 86 4.4.2 多输出通道 87 4.4.3 1×1 卷积层 88 4.5 池化层 89 4.5.1 *大池化层和平均池化层 89 4.5.2 填充和步幅 91 4.5.3 多个通道 92 4.6 卷积神经网络 93 4.6.1 LeNet 93 4.6.2 训练 LeNet 95 第5章 现代卷积神经网络 98 5.1 深度卷积神经网络 98 5.1.1 学习表征 99 5.1.2 AlexNet 101 5.1.3 读取数据集 104 5.1.4 训练AlexNet 104 5.2 使用块的网络 105 5.2.1 VGG 块 105 5.2.2 VGG 网络 106 5.2.3 训练VGG 108 5.3 网络中的网络 108 5.3.1 NiN 块 109 5.3.2 NiN 模型 110 5.3.3 训练NiN 111 5.4 含并行连结的网络 111 5.4.1 Inception块 112 5.4.2 GoogLeNet 模型 113 5.4.3 训练GoogLeNet 116 5.5 归一化算法 116 5.5.1 训练深层网络 116 5.5.2 批量归一化层 118 5.5.3 从零实现批量归一化层 118 5.5.4 使用批量归一化层的 LeNet 120 5.5.5 简明实现 122 5.5.6 争议 123 5.6 残差网络 123 5.6.1 函数类 124 5.6.2 残差块 124 5.6.3 ResNet模型 127 5.6.4 训练 ResNet 129 5.7 稠密连接网络 130 5.7.1 从ResNet到DenseNet 130 5.7.2 稠密块体 131 5.7.3 过渡层 132 5.7.4 DenseNet模型 133 5.7.5 训练DenseNet 134 第6章 循环神经网络 135 6.1 序列模型 135 6.1.1 统计工具 136 6.1.2 序列模型的训练 138 6.1.3 序列模型的预测 140 6.2 文本预处理 143 6.2.1 读取数据集 143 6.2.2 标记化 144 6.2.3 词汇 145 6.2.4 把所有的东西放在一起 146 6.3 语言模型和数据集 147 6.3.1 学习语言模型 148 6.3.2 马尔可夫模型与 n 元语法 149 6.3.3 自然语言统计 149 6.3.4 读取长序列数据 152 6.4 循环神经网络 156 6.4.1 无隐藏状态的神经网络 156 6.4.2 具有隐藏状态的循环神经网络 157 6.4.3 基于循环神经网络的字符级语言模型 158 6.4.4 困惑度 159 6.5 循环神经网络的从零开始实现 160 6.5.1 独热编码 161 6.5.2 初始化模型参数 161 6.5.3 循环神经网络模型 162 6.5.4 循环神经网络模型的预测 163 6.5.5 梯度裁剪 164 6.5.6 循环神经网络模型的训练 165 6.6 循环神经网络的简洁实现 168 6.6.1 定义模型 168 6.6.2 训练与预测 169 6.7 通过时间反向传播 170 6.7.1 循环神经网络的梯度分析 171 6.7.2 通过时间反向传播细节 173 第7章 网络优化与正则化 176 7.1 网络优化 176 7.2 优化算法 178 7.2.1 小批量梯度下降 178 7.2.2 学习率衰减 179 7.2.3 梯度方向优化 181 7.2.4 优化算法小结 184 7.3 参数初始化 185 7.4 数据预处理 186 7.5 逐层归一化 188 7.5.1 批量归一化 189 7.5.2 层归一化 190 7.5.3 其他归一化方法 191 7.6 超参数优化 192 7.6.1 网格搜索 192 7.6.2 随机搜索 193 7.6.3 贝叶斯优化 193 7.6.4 动态资源分配 194 7.7 网络正则化 195 7.7.1 和 正则化 195 7.7.2 权重衰减 196 7.7.3 提前停止 197 7.7.4 丢弃法 197 7.7.5 数据增强 199 7.7.6 标签平滑 199 7.8 总结 200 第8章 实战演练 201 8.1 TensorFlow的MNIST手写数字分类的实现 201 8.1.1 数据预处理 201 8.1.2 构建及训练模型 202 8.1.3 评估准确率 207 8.1.4 模型的应用与可视化 208 8.2 车辆识别 209 8.2.1 要解决的问题 210 8.2.2 YOLO 210 8.2.3 测试已经训练好的YOLO模型 220 8.3 人脸识别 223 8.3.1 简单的人脸验证 225 8.3.2 将人脸图像编码为128位的向量 225 8.3.3 加载训练好的模型 229 8.3.4 模型的应用 230 ?? ?? ??

    与描述相符

    100

    北京 天津 河北 山西 内蒙古 辽宁 吉林 黑龙江 上海 江苏 浙江 安徽 福建 江西 山东 河南 湖北 湖南 广东 广西 海南 重庆 四川 贵州 云南 西藏 陕西 甘肃 青海 宁夏 新疆 台湾 香港 澳门 海外