欢迎访问学兔兔,学习、交流 分享 !

返回首页 |

Keras深度学习与神经网络 肖睿 2022年版

收藏
  • 大小:109.31 MB
  • 语言:中文版
  • 格式: PDF文档
  • 阅读软件: Adobe Reader
资源简介
Keras深度学习与神经网络
作者:肖睿
出版时间: 2022年版
内容简介
本书从人工智能导论入手,阐述人工智能的发展及现状,重点介绍了机器学习和神经网络基础、反向传播原理、卷积神经网络和循环神经网络等内容。本书内容由浅入深,循序渐进,从神经元和感知机入手,逐步讲解深度学习中神经网络基础、反向传播以及更深层次的卷积神经网络、循环神经网络。本书知识体系完整,内容覆盖面广,介绍了深度学习中常用的模型和算法,助力读者全方位掌握深度学习的相关知识。
本书可作为高等院校计算机等相关专业的教材,也可供人工智能领域的技术人员学习使用,还可以作为人工智能研究人员的参考用书。

目录

目录 章 人工智能导论
任务 1.1:了解人工智能发展历程
人工智能的发展历程
任务 1.2:理解人工智能、机器学习、深度学习.
1.2.1 人工智能,机器学习和深度学习
1.2.2 深度学习的发展
任务 1.3:了解深度学习的应用情况
1.3.1 深度学习的应用情况
本章小结
本章习题
第 2 章 深度学习流程
任务 2.1:什么是机器学习
2.1.1 机器学习
2.1.2 机器如何学习
任务 2.2:理解回归与分类
2.2.1 回归
2.2.2 分类
任务 2.3:了解深度学习工作过程
深度学习工作过程
本章小结
本章习题
第 3 章 神经网络基础
任务 3.1:什么是人工神经元
3.1.1 生物神经元
3.1.2 人工神经元
任务 3.2:理解激活函数的意义
3.2.1 激活函数的意义
3.2.2 激活函数种类
任务 3.3:掌握基础的神经网络结构
3.3.1 感知机模型
3.3.2 全连接神经网络
任务 3.4:了解什么是损失函数
3.4.1 损失函数的意义
3.4.2 损失函数的种类
本章小结
本章习题
第 4 章 反向传播原理.
任务 4.1:计算神经网络的输出
前向传播计算
任务 4.2:掌握反向传播算法
4.2.1 反向传播算法的意义
4.2.2 反向传播算法的计算
任务 4.3:掌握梯度下降算法
4.3.1 梯度下降概述
4.3.2 梯度下降的形式
4.3.3 学习率的作用
任务 4.4:使用 Pytho实现反向传播算法
反向传播的 Pytho实现
本章小结
本章习题
第 5 章 Keras 与环境配置
任务 5.1:深度学习开发环境的配置
5.1.1 Pytho开发环境搭建
5.1.2 Keras 与 TensorFlow 安装
任务 5.2:快速开始 Keras
5.2.1 为什么选择 Keras
5.2.2 快速开始 Keras
任务 5.3:掌握顺序模型 Sequential API
5.3.1 Sequential API
任务 5.4:认识函数式模型 Funtional API
Funtional API
本章小结
本章习题
第 6 章 深度神经网络手写体识别
任务 6.1:理解 Softmax 回归模型
6.1.1 Softmax 回归模型
6.1.2 交叉熵损失函数
任务 6.2:使用手写体识别数据集 MNIST
图像分类数据集-MNIST
任务 6.3:深度神经网络解决图像分类问题
多层感知机结合 Softmax 完成手写体识别
任务 6.4:模型评估
6.4.1 选择一个可靠的模型
6.4.2 欠拟合和过拟合
本章小结
本章习题
第 7 章 神经网络优化
任务 7.1:范数正则化避免过拟合
范数正则化
任务 7.2:丢弃法正则化避免过拟合
丢弃法
任务 7.3:掌握改进的优化算法
7.3.1 深度学习与优化
7.3.2 小批量随机梯度下降算法改进
本章小结
本章习题
第 8 章 卷积神经网络
任务 8.1:初识卷积神经网络
8.1.1 卷积概述
8.1.2 与全连接网络对比
任务 8.2:卷积运算
8.2.1 卷积核
8.2.2 填充和步幅
8.2.3 多通道卷积
8.2.4 池化层
任务 8.3:LeNet 实现物体分类
8.3.1 LeNet-开山之作
8.3.2 LeNet 进行物体分类
本章小结
本章习题
第 9 章 卷积神经网络经典结构
任务 9.1:训练深度卷积神经网络
9.1.1 AlexNet
9.1.2 图像增广
9.1.3 实现 AlexNet
任务 9.2:进一步增加网络的深度
9.2.1 VGG 系列
9.2.2 应用 VGG16 提取特征
任务 9.3:认识并行结构的卷积网络
9.3.1 GoogLeNet
9.3.2 Inceptio结构块
9.3.3 1×1 卷积核
9.3.4 GoogLeNet 结构
任务 9.4:把网络深度提升至上百层
9.4.1 深度残差网络
9.4.2 稠密连接网络
本章小结
本章习题
0 章 循环神经网络
任务 10.1:对时序数据建模
10.1.1 时序数据
10.1.2 循环神经网络
任务 10.2:增加循环神经网络的记忆
10.2.1 长短期记忆网络原理
10.2.2 Keras 实现 LSTM
任务 10.3:优化长短期记忆网络
10.3.1 重置门与更新门
本章小结
本章习题
下载地址