您好,欢迎光临有路网!
Python大数据处理库PySpark实战
QQ咨询:
有路璐璐:

Python大数据处理库PySpark实战

  • 作者:汪明
  • 出版社:清华大学出版社
  • ISBN:9787302575085
  • 出版日期:2021年03月01日
  • 页数:0
  • 定价:¥79.00
  • 分享领佣金
    手机购买
    城市
    店铺名称
    店主联系方式
    店铺售价
    库存
    店铺得分/总交易量
    发布时间
    操作

    新书比价

    网站名称
    书名
    售价
    优惠
    操作

    图书详情

    内容提要
    我国提出新基建概念,要加快大数据**、人工智能等新型基础设施的建设进度,这无疑需要更多的大数据人才。PySpark可以对大数据进行分布式处理,降低大数据学习门槛,本书正是一本PySpark入门教材,适合有一定Python基础的读者学习使用。 本书分为7章,第1章介绍大数据的基本概念、常用的大数据分析工具;第2章介绍Spark作为大数据处理的特点和算法;第3章介绍Spark实战环境的搭建,涉及Windows和Linux操作系统;第4章介绍如何灵活应用PySpark对数据进行操作;第5章介绍PySpark ETL处理,涉及PySpark读取数据、对数据进行统计分析等数据处理相关内容;第6章介绍PySpark如何利用MLlib库进行分布式机器学习(Titanic幸存者预测);第7章介绍一个PySpark和Kafka结合的实时项目。 本书内容全面、示例丰富,可作为广大PySpark入门读者**的参考书,同时能作为大中专院校师生的教学参考书,也可作为高等院校计算机及相关专业的大数据技术教材使用。
    目录
    第1章 大数据时代 1 1.1 什么是大数据 1 1.1.1 大数据的特点 2 1.1.2 大数据的发展趋势 3 1.2 大数据下的分析工具 4 1.2.1 Hadoop 5 1.2.2 Hive 6 1.2.3 HBase 6 1.2.4 Apache Phoenix 7 1.2.5 Apache Drill 7 1.2.6 Apache Hudi 7 1.2.7 Apache Kylin 8 1.2.8 Apache Presto 8 1.2.9 ClickHouse 8 1.2.10 Apache Spark 9 1.2.11 Apache Flink 10 1.2.12 Apache Storm 10 1.2.13 Apache Druid 10 1.2.14 Apache Kafka 11 1.2.15 TensorFlow 11 1.2.16 PyTorch 12 1.2.17 Apache Superset 12 1.2.18 Elasticsearch 12 1.2.19 Jupyter Notebook 13 1.2.20 Apache Zeppelin 13 1.3 小结 14 第2章 大数据的瑞士军刀——Spark 15 2.1 Hadoop与生态系统 15 2.1.1 Hadoop概述 15 2.1.2 HDFS体系结构 19 2.1.3 Hadoop生态系统 20 2.2 Spark与Hadoop 23 2.2.1 Apache Spark概述 23 2.2.2 Spark和Hadoop比较 24 2.3 Spark核心概念 25 2.3.1 Spark软件栈 25 2.3.2 Spark运行架构 26 2.3.3 Spark部署模式 27 2.4 Spark基本操作 29 2.5 SQL in Spark 33 2.6 Spark与机器学习 33 2.6.1 决策树算法 35 2.6.2 贝叶斯算法 36 2.6.3 支持向量机算法 36 2.6.4 随机森林算法 37 2.6.5 人工神经网络算法 38 2.6.6 关联规则算法 39 2.6.7 线性回归算法 40 2.6.8 KNN算法 40 2.6.9 K-Means算法 41 2.7 小结 42 第3章 Spark实战环境设定 43 3.1 建立Spark环境前提 43 3.1.1 CentOS 7安装 45 3.1.2 FinalShell安装 55 3.1.3 PuTTY安装 58 3.1.4 JDK安装 60 3.1.5 Python安装 63 3.1.6 Visual Studio Code安装 64 3.1.7 PyCharm安装 65 3.2 一分钟建立Spark环境 66 3.2.1 Linux搭建Spark环境 66 3.2.2 Windows搭建Spark环境 69 3.3 建立Hadoop集群 79 3.3.1 CentOS配置 79 3.3.2 Hadoop伪分布模式安装 81 3.3.3 Hadoop完全分布模式安装 87 3.4 安装与配置Spark集群 93 3.5 安装与配置Hive 99 3.5.1 Hive安装 99 3.5.2 Hive与Spark集成 108 3.6 打造交互式Spark环境 110 3.6.1 Spark Shell 111 3.6.2 PySpark 112 3.6.3 Jupyter Notebook安装 112 3.7 小结 118 第4章 活用PySpark 119 4.1 Python 语法复习 119 4.1.1 Python基础语法 120 4.1.2 Python变量类型 124 4.1.3 Python运算符 135 4.1.4 Python控制语句 139 4.1.5 Python函数 143 4.1.6 Python模块和包 149 4.1.7 Python面向对象 154 4.1.8 Python异常处理 157 4.1.9 Python JSON处理 159 4.1.10 Python日期处理 160 4.2 用PySpark建立**个Spark RDD 161 4.2.1 PySpark Shell 建立RDD 163 4.2.2 VSCode编程建立RDD 165 4.2.3 Jupyter 编程建立RDD 167 4.3 RDD的操作与观察 168 4.3.1 first操作 169 4.3.2 max操作 169 4.3.3 sum操作 170 4.3.4 take操作 171 4.3.5 top操作 172 4.3.6 count操作 172 4.3.7 collect操作 173 4.3.8 collectAsMap操作 174 4.3.9 countByKey操作 175 4.3.10 countByValue操作 175 4.3.11 glom操作 176 4.3.12 coalesce操作 177 4.3.13 combineByKey操作 178 4.3.14 distinct操作 179 4.3.15 filter操作 180 4.3.16 flatMap操作 181 4.3.17 flatMapValues操作 181 4.3.18 fold操作 182 4.3.19 foldByKey操作 183 4.3.20 foreach操作 184 4.3.21 foreachPartition操作 185 4.3.22 map操作 186 4.3.23 mapPartitions操作 187 4.3.24 mapPartitionsWithIndex操作 187 4.3.25 mapValues操作 188 4.3.26 groupBy操作 189 4.3.27 groupByKey操作 190 4.3.28 keyBy操作 191 4.3.29 keys操作 192 4.3.30 zip操作 193 4.3.31 zipWithIndex操作 194 4.3.32 values操作 194 4.3.33 union操作 195 4.3.34 takeOrdered操作 196 4.3.35 takeSample操作 197 4.3.36 subtract操作 198 4.3.37 subtractByKey操作 198 4.3.38 stats操作 199 4.3.39 sortBy操作 200 4.3.40 sortByKey操作 201 4.3.41 sample操作 202 4.3.42 repartition操作 203 4.3.43 reduce操作 204 4.3.44 reduceByKey操作 205 4.3.45 randomSplit操作 206 4.3.46 lookup操作 207 4.3.47 join操作 208 4.3.48 intersection操作 209 4.3.49 fullOuterJoin操作 210 4.3.50 leftOuterJoin与rightOuterJoin操作 211 4.3.51 aggregate操作 212 4.3.52 aggregateByKey操作 215 4.3.53 cartesian操作 217 4.3.54 cache操作 218 4.3.55 saveAsTextFile操作 218 4.4 共享变数 220 4.4.1 广播变量 220 4.4.2 累加器 221 4.5 DataFrames与Spark SQL 223 4.5.1 DataFrame建立 223 4.5.2 Spark SQL基本用法 228 4.5.3 DataFrame基本操作 231 4.6 撰写**个Spark程序 245 4.7 提交你的 Spark 程序 246 4.8 小结 248 第5章 PySpark ETL 实战 249 5.1 认识资料单元格式 249 5.2 观察资料 255 5.3 选择、筛选与聚合 267 5.4 存储数据 269 5.5 Spark存储数据到SQL Server 272 5.6 小结 275 第6章 PySpark分布式机器学习 276 6.1 认识数据格式 277 6.2 描述统计 280 6.3 资料清理与变形 284 6.4 认识Pipeline 288 6.5 逻辑回归原理与应用 290 6.5.1 逻辑回归基本原理 290 6.5.2 逻辑回归应用示例:Titanic幸存者预测 291 6.6 决策树原理与应用 295 6.6.1 决策树基本原理 295 6.6.2 决策树应用示例:Titanic幸存者预测 296 6.7 小结 299 第7章 实战:PySpark Kafka实时项目 301 7.1 Kafka和Flask环境搭建 301 7.2 代码实现 303 7.3 小结 310

    与描述相符

    100

    北京 天津 河北 山西 内蒙古 辽宁 吉林 黑龙江 上海 江苏 浙江 安徽 福建 江西 山东 河南 湖北 湖南 广东 广西 海南 重庆 四川 贵州 云南 西藏 陕西 甘肃 青海 宁夏 新疆 台湾 香港 澳门 海外