百道网
 您现在的位置:Fun书 > Python爬虫、数据分析与可视化:工具详解与案例实战
Python爬虫、数据分析与可视化:工具详解与案例实战


Python爬虫、数据分析与可视化:工具详解与案例实战

作  者:成立明,胡书敏,黄勇

出 版 社:机械工业出版社

出版时间:2020年12月

定  价:69.00

I S B N :9787111667759

所属分类: 专业科技  >  计算机/网络  >  程序设计    

标  签:

[查看微博评论]

分享到:

TOP内容简介

全书共13章。~4章为基础篇,主要讲述Python基础知识、Python数据结构、面向对象程序设计思想,Python异常处理和读写文件的技巧;第5~7章为数据分析的工具篇,主要讲述Numpy库、Pandas库和Matplotlib库的基本功能和应用;第8章和第9章为“数据分析高级技能篇”,主要讲述通过爬取技术博客案例、基于Scrapy爬虫框架的实用技巧、数据分析的常用方法,如Python连接操作数据库的相关技能,基于时间序列、概率分析、推断统计和回归分析方法的数学分析方法;0~13章为“综合案例篇”,主要讲述二手房数据分析案例、股票数据分析案例以及基于Sklearn库的机器学习相关实践。


TOP目录

前言

章 Python编程基础1

1.1 搭建Python开发环境1

1.1.1 安装Python解释器1

1.1.2 安装Python第三方开发包2

1.1.3 在PyCharm里新建项目和文件3

1.1.4 在PyCharm里更换Python解释器5

1.2 实践Python基本语法5

1.2.1 针对基本数据类型的操作6

1.2.2 针对字符串的操作7

1.2.3 多行注释与引入中文8

1.2.4 条件分支语句9

1.2.5 循环操作语句9

1.2.6 break和continue的用法10

1.2.7 格式化输出语句11

1.3 定义和调用函数11

1.4 return的重要性——函数的递归调用12

1.5 熟悉函数的特殊写法13

1.5.1 函数作为参数14

1.5.2 函数作为返回结果14

1.5.3 匿名函数15

1.6 本章小结15

第2章 Python的数据结构16

2.1 列表16

2.1.1 定义列表16

2.1.2 在列表中增、删、改元素17

2.1.3 列表的切片操作18

2.1.4 遍历列表19

2.1.5 列表的常见用法19

2.2 元组20

2.2.1 创建和使用元组20

2.2.2 元组的常见用法21

2.3 集合22

2.3.1 创建和使用集合22

2.3.2 针对集合的常用数据操作23

2.4 字典23

2.4.1 创建和使用字典24

2.4.2 增加、删除和修改字典中的元素24

2.4.3 遍历字典25

2.5 针对数据结构的通用性操作25

2.5.1 通过map方法实现序列的映射25

2.5.2 filter方法与数据筛选26

2.5.3 通过reduce方法实现累计效果27

2.5.4 通过sorted方法排序对象27

2.6 本章小结28

第3章 Python面向对象编程29

3.1 什么是面向对象思想29

3.2 封装特性30

3.2.1 创建类并在类里封装属性和方法30

3.2.2 类方法的个参数必须指向实例31

3.2.3 私有属性的典型错误用法31

3.2.4 了解其他常用魔术方法33

3.2.5 从私有属性和私有方法体会封装特性34

3.3 继承特性35

3.3.1 继承的语法和使用场景35

3.3.2 子类无法使用父类的私有属性和方法36

3.3.3 受保护的属性和方法37

3.3.4 多重继承与组合模式38

3.4 多态特性40

3.4.1 以迭代器为例来理解多态40

3.4.2 可变参数与方法重载41

3.4.3 整合使用多态和继承42

3.5 模块、包以及第三方库43

3.5.1 通过import重用现有模块中的功能43

3.5.2 自定义包和使用包43

3.5.3 引入并使用第三方库44

3.6 本章小结45

第4章 异常处理机制与文件读写46

4.1 通过try…except…finally处理异常46

4.1.1 处理异常的try…except从句46

4.1.2 使用异常处理类47

4.1.3 同时处理多个异常48

4.1.4 在处理异常时引入else代码块49

4.1.5 引入finally从句50

4.2 raise与except的整合使用51

4.2.1 通过raise抛出异常51

4.2.2 自定义异常且与except整合使用51

4.3 异常处理的实践经验52

4.3.1 尽可能缩小try的代码块53

4.3.2 用专业的异常处理类针对性地处理异常53

4.3.3 拿到异常别忽视54

4.3.4 合理确定异常的影响范围54

4.4 在读写文件案例中使用异常机制55

4.4.1 通过os.path获取目录和文件属性55

4.4.2 以只读模式打开文件56

4.4.3 逐行读取文件58

4.4.4 通过write写文件59

4.4.5 以添加的方式写文件59

4.4.6 读写csv文件60

4.5 本章小结61

第5章 NumPy数组处理62

5.1 NumPy库的基础数据结构:ndarray对象62

5.1.1 通过array方法创建ndarray62

5.1.2 ndarray的dtype属性63

5.1.3 创建全0或全1的ndarray64

5.2 NumPy库的常用操作65

5.2.1 通过arange方法创建序列数组65

5.2.2 针对ndarray的数学运算66

5.2.3 常用的科学计算函数67

5.2.4 常用的聚合统计函数68

5.2.5 遍历ndarray数组69

5.3 针对ndarray的索引和切片操作69

5.3.1 索引操作69

5.3.2 布尔索引与条件过滤70

5.3.3 切片操作与共享内存70

5.3.4 通过copy函数创建副本72

5.4 本章小结72

第6章 Pandas数据清洗73

6.1 以一维方式存储数据的Series对象73

6.1.1 Series的常规操作74

6.1.2 创建并使用Series索引75

6.1.3 获取Series里的切片数据76

6.1.4 通过布尔Series获取满足条件的元素78

6.1.5 遍历Series数据78

6.2 以表格格式存储数据的DataFrame对象79

6.2.1 DataFrame对象的常规用法79

6.2.2 通过loc、iloc和ix提取数据81

6.2.3 遍历DataFrame里的数据82

6.3 面向DataFrame的常用数据分析方法82

6.3.1 对DataFrame数据进行排序83

6.3.2 以列为单位进行运算83

6.3.3 增加和删除列84

6.3.4 过滤和重设数据85

6.3.5 在DataFrame中进行数据统计分析85

6.3.6 衡量变量间关联程度的corr方法86

6.4 Pandas与各类文件的交互87

6.4.1 DataFrame数据与csv文件的相互转换87

6.4.2 NaN与缺失值处理89

6.4.3 DataFrame数据与Excel文件的相互转换90

6.4.4 DataFrame数据与json文件的相互转换91

6.5 本章小结92

第7章 Matplotlib数据可视化93

7.1 通过Matplotlib绘制各类图形93

7.1.1 绘制折线图93

7.1.2 绘图时的通用属性参数94

7.1.3 绘制柱状图95

7.1.4 绘制饼图97

7.1.5 绘制直方图98

7.2 设置坐标的技巧99

7.2.1 设置x和y坐标标签文字并展示中文99

7.2.2 设置坐标的范围100

7.2.3 设置坐标的主刻度和次刻度101

7.2.4 设置并旋转坐标刻度文字102

7.3 增加可视化美观效果103

7.3.1 设置图例104

7.3.2 设置中文标题105

7.3.3 设置网格效果106

7.4 设置多图和子图效果107

7.4.1 通过figure对象同时绘制多张图107

7.4.2 通过add_subplot方法绘制子图108

7.4.3 通过subplot方法绘制子图109

7.4.4 子图共享x坐标轴110

7.4.5 在大图里绘制子图112

7.5 绘制高级图表113

7.5.1 绘制散点图113

7.5.2 绘制热图114

7.5.3 绘制等值线图115

7.6 通过mplot3d绘制三维图形116

7.6.1 绘制三维曲线图116

7.6.2 绘制三维散点图117

7.6.3 绘制三维柱状图118

7.7 本章小结119

第8章 通过网络爬虫获取数据120

8.1 和爬虫有关的120

8.1.1 基于的请求处理流程120

8.1.2 请求头包含操作系统和浏览器信息122

8.1.3 Post和Get请求方法122

8.1.4 常见的状态码122

8.2 通过Urllib库获取网页信息123

8.2.1 通过request爬取网页123

8.2.2 设置超时时间124

8.2.3 用URLError处理网络异常124

8.2.4 设置header属性来模拟浏览器发送请求125

8.3 通过BeautifulSoup提取页面信息125

8.3.1 安装BeautifulSoup库125

8.3.2 用Tag提取HTML元素和属性126

8.3.3 用NavigableString提取元素值127

8.3.4 用Comment提取注释127

8.3.5 制定规则搜索指定的内容128

8.4 通过正则表达式截取信息130

8.4.1 查找指定字符串130

8.4.2 用通用字符来模糊匹配130

8.4.3 通过原子表来定义匹配规则131

8.4.4 用findall按匹配规则截取内容132

8.5 用Scrapy爬取博客园文章信息134

8.5.1 通过Scrapy命令创建爬虫项目134

8.5.2 明确爬取目标,制定爬取规则134

8.5.3 在Item模块里定义数据模型136

8.5.4 生成爬虫文件,定义爬取动作136

8.5.5 在pipelines文件里定义数据存储方式137

8.5.6 启动爬虫程序,观察运行效果138

8.6 本章小结139

第9章 数据分析的常用方法140

9.1 准备并存储数据140

9.1.1 用Pandas_datareader库获取数据140

9.1.2 以csv和Excel格式存储数据141

9.1.3 准备MySQL环境142

9.1.4 在MySQL里存储数据142

9.1.5 从数据表里读取数据145

9.2 描述性统计146

9.2.1 平均数、中位数和百分位数146

9.2.2 用箱状图展示分位数147

9.2.3 统计极差、方差和标准差148

9.3 基于时间序列的统计方法148

9.3.1 用rolling方法计算移动平均值148

9.3.2 基于时间序列的自相关性分析149

9.3.3 基于时间序列的偏自相关性分析151

9.3.4 用热力图分析不同时间序列的相关性152

9.4 概率分析方法与推断统计154

9.4.1 分析收盘价,绘制小提琴图154

9.4.2 用直方图来拟合正态分布效果155

9.4.3 验证序列是否满足正态分布156

9.4.4 参数估计方法157

9.4.5 显著性验证158

9.5 回归分析方法159

9.5.1 构建一元线性回归模型159

9.5.2 以多元线性回归模型预测股价162

9.6 本章小结1

作者介绍


TOP书摘

TOP 其它信息

加载页面用时:147.9523