欢迎访问学兔兔,学习、交流 分享 !

返回首页 |

21世纪高等学校计算机专业实用规划教材 Python快乐编程:网络爬虫 千锋教育高教产品研发部 编著 2019年版

收藏
  • 大小:36.17 MB
  • 语言:中文版
  • 格式: PDF文档
  • 阅读软件: Adobe Reader
资源简介
21世纪高等学校计算机专业实用规划教材 Python快乐编程:网络爬虫
作者:千锋教育高教产品研发部 编著
出版时间: 2019年版
丛编项: 21世纪高等学校计算机专业实用规划教材
内容简介
  随着网络技术的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战,网络爬虫应运而生。《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》介绍了如何利用Python3.x来开发网络爬虫,并通过爬虫原理讲解以及Web前端基础知识代领读者入门,结合企业实战,让读者快速学会编写Python网络爬虫。《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》适用于中等水平的Python开发人员、高等院校及培训学校的老师和学生。通过《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》的学习可以轻松领会Python在网络爬虫、数据挖掘领域的精髓,可胜任Python网络爬虫工程师的工作以及完成各种网络爬虫项目的代码编写。
目录
第1章 Python网络爬虫入门
1.1 所需技能与Python版本
1.1.1 所需技术能力
1.1.2 选择Python的原因
1.1.3 选择Python 3.x的原因
1.2 初识网络爬虫
1.2.1 网络爬虫的概念
1.2.2 网络爬虫的应用
1.2.3 Robots协议
1.3 搜索引擎核心
1.4 快速爬取网页示例
1.5 本章小结
1.6 习题
第2章 爬虫基础知识
2.1 Cookie的使用
2.1.1 Cookie的概念
2.1.2 使用Cookiejar处理Cookie
2.2 正则表达式
2.2.1 正则表达式的概念
2.2.2 正则表达式详解
2.3 标记语言
2.4 Xpath
2.5 JSON
2.6 BeautifulSoup
2.6.1 安装BeautifulSoup
2.6.2 BeautifulSoup的使用
2.7 本章小结
2.8 习题
第3章 urllib与requests
3.1 urllib库
3.1.1 urllib库的概念
3.1.2 urllib库的使用
3.2 设置HTTP请求方法
3.2.1 GET请求实战
3.2.2 设置代理服务
3.3 异常处理
3.3.1 URLError异常处理
3.3.2 HTTPError异常处理
3.4 requests库
3.4.1 安装requests库
3.4.2 发送请求
3.4.3 响应接收
3.4.4 会话对象
3.5 本章小结
3.6 习题
第4章 网络爬虫实例
4.1 图片爬虫实例
4.2 链接爬虫实例
4.3 文字爬虫实例
4.4 微信文章爬虫
4.5 多线程爬虫及实例
4.6 本章小结
4.7 习题
第5章 数据处理
5.1 存储HTML正文内容
5.1.1 存储为JSON格式
5.1.2 存储为CSV格式
5.2 存储媒体文件
5.3 Email提醒
5.4 pymysql模块
5.5 本章小结
5.6 习题
第6章 数据库存储
6.1 SQLite
6.1.1 SQLite介绍
6.1.2 安装SQLite
6.1.3 Python与SQLite
6.1.4 创建SQLite表
6.1.5 添加SQLite表记录
6.1.6 查询SQLite表记录
6.1.7 更新SQLite表记录
6.1.8 删除SQLite表记录
6.2 MongoDB
6.2.1 MongoDB简介
6.2.2 MongoDB适用场景
6.2.3 MongoDB的安装
6.2.4 MongoDB基础
6.2.5 在Python中操作MongoDB
6.3 Redis
6.3.1 Redis简介
6.3.2 Redis适用场景
6.3.3 Redis的安装
6.3.4 Redis数据类型与操作
6.3.5 在Python中操作Redis
6.4 本章小结
6.5 习题
第7章 抓取动态网页内容
7.1 JavaScript简介
7.1.1 JS语言特性
7.1.2 JS简单示例
7.1.3 JavaScript库
7.1.4 Ajax简介
7.2 爬取动态网页的工具
7.2.1 Selenium库
7.2.2 PhantomJS浏览器
7.2.3 Firefox的headless模式
7.2.4 Selenium的选择器
7.2.5 Selenium等待方式
7.2.6 客户端重定向
7.3 爬取动态网页实例
7.4 本章小结
7.5 习题
第8章 浏览器伪装与定向爬取
8.1 浏览器伪装介绍
8.1.1 抓包工具Fiddler
8.1.2 浏览器伪装过程分析
8.1.3 浏览器伪装技术实战
8.2 定向爬虫
8.2.1 定向爬虫分析
8.2.2 定向爬虫实战
8.3 本章小结
8.4 习题
第9章 初探Scrapy爬虫框架
9.1 了解爬虫框架
9.1.1 初识Scrapy框架
9.1.2 初识Crawley框架
9.1.3 初识Portia框架
9.1.4 初识Newspaper框架
9.2 Scrapy介绍
9.2.1 安装Scrapy
9.2.2 Scrapy程序管理
9.2.3 Scrapy项目的目录结构
9.3 常用命令
9.3.1 Scrapy全局命令
9.3.2 Scrapy项目命令
9.3.3 Scrapy的Item对象
9.4 编写Spider程序
9.4.1 初识Spider
9.4.2 Spider文件参数传递
9.5 Spider反爬虫机制
9.6 本章小结
9.7 习题
第10章 深入Scrapy爬虫框架
10.1 Scrapy核心架构
10.2 Scrapy组件详解
10.3 Scrapy数据处理
10.3.1 Scrapy数据输出
10.3.2 Scrapy数据存储
10.4 Scrapy自动化爬取
10.4.1 创建项目并编写items.py
10.4.2 编写pipelines.py
10.4.3 修改settings.py
10.4.4 编写爬虫文件
10.4.5 执行自动化爬虫
10.5 CrawlSpider
10.5.1 创建CrawlSpider
10.5.2 LinkExtractor
10.5.3 CrawlSpider部分源代码分析
10.5.4 实例CrawlSpider
10.6 本章小结
10.7 习题
第11章 Scrapy实战项目
11.1 文章类项目
11.1.1 需求分析
11.1.2 实现思路
11.1.3 程序设计
11.1.4 请求分析
11.1.5 循环网址
11.1.6 爬虫运行
11.2 图片类项目
11.2.1 需求分析
11.2.2 实现思路
11.2.3 程序设计
11.2.4 项目实现
11.3 登录类项目
11.3.1 需求分析
11.3.2 实现思路
11.3.3 程序设计
11.3.4 项目实现
11.4 本章小结
11.5 习题
第12章 分布式爬虫
12.1 简单分布式爬虫
12.1.1 进程及进程间通信
12.1.2 简单分布式爬虫结构
12.1.3 控制节点
12.1.4 爬虫节点
12.2 Scrapy与分布式爬虫
12.2.1 Scrapy中集成Redis
12.2.2 MongoDB集群
12.3 Scrapy分布式爬虫实战
12.3.1 创建爬虫
12.3.2 定义Item
12.3.3 爬虫模块
12.3.4 编写Pipeline
12.3.5 修改Settings
12.3.6 运行项目
12.4 去重优化
12.5 本章小结
12.6 习题
下载地址