|
|
6 lat temu | |
|---|---|---|
| assets | 6 lat temu | |
| .gitignore | 6 lat temu | |
| README.md | 6 lat temu | |
| TensorFlow2深度学习.pdf | 6 lat temu |
包含电子书,配套源代码等。
https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book/issues
TensorFlow 2.0 实战案例: https://github.com/dragen1860/TensorFlow-2.x-Tutorials
联系邮箱(一般问题建议Github issues交流):liangqu.long AT gmail.com
1.1 人工智能 1.2 神经网络发展简史 1.3 深度学习特点 1.4 深度学习应用 1.5 深度学习框架 1.6 开发环境安装 1.7 参考文献
2.1 神经元模型 2.2 优化方法 2.3 线性模型实战 2.4 线性回归 2.5 参考文献
3.1 手写数字图片数据集 3.2 模型构建 3.3 误差计算 3.4 真的解决了吗 3.5 非线性模型 3.6 表达能力 3.7 优化方法 3.8 手写数字图片识别体验 3.9 小结 3.10 参考文献
4.1 数据类型 4.2 数值精度 4.3 待优化张量 4.4 创建张量 4.5 张量的典型应用 4.6 索引与切片 4.7 维度变换 4.8 Broadcasting 4.9 数学运算 4.10 前向传播实战 4.11 参考文献
5.1 合并与分割 5.2 数据统计 5.3 张量比较 5.4 填充与复制 5.5 数据限幅 5.6 高级操作 5.7 经典数据集加载 5.8 MNIST测试实战 5.9 参考文献
6.1 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6.5 输出层设计 6.6 误差计算 6.7 神经网络类型 6.8 油耗预测实战 6.9 参考文献
7.1 导数与梯度 7.2 导数常见性质 7.3 激活函数导数 7.4 损失函数梯度 7.5 全连接层梯度 7.6 链式法则 7.7 反向传播算法 7.8 Himmelblau函数优化实战 7.9 反向传播算法实战 7.10 参考文献
8.1 常见功能模块 8.2 模型装配、训练与测试 8.3 模型保存与加载 8.4 自定义类 8.5 模型乐园 8.6 测量工具 8.7 可视化 8.8 参考文献
9.1 模型的容量 9.2 过拟合与欠拟合 9.3 数据集划分 9.4 模型设计 9.5 正则化 9.6 Dropout 9.7 数据增强 9.8 过拟合问题实战 9.9 参考文献
10.1 全连接网络的问题 10.2 卷积神经网络 10.3 卷积层实现 10.4 LeNet-5实战 10.5 表示学习 10.6 梯度传播 10.7 池化层 10.8 BatchNorm层 10.9 经典卷积网络 10.10 CIFAR10与VGG13实战 10.11 卷积层变种 10.12 深度残差网络 10.13 DenseNet 10.14 CIFAR10与ResNet18实战 10.15 参考文献
11.1 序列表示方法 11.2 循环神经网络 11.3 梯度传播 11.4 RNN层使用方法 11.5 RNN情感分类问题实战 11.6 梯度弥散和梯度爆炸 11.7 RNN短时记忆 11.8 LSTM原理 11.9 LSTM层使用方法 11.10 GRU简介 11.11 LSTM/GRU情感分类问题再战 11.12 预训练的词向量 11.13 参考文献
12.1 自编码器原理 12.2 MNIST图片重建实战 12.3 自编码器变种 12.4 变分自编码器 12.5 VAE实战 12.6 参考文献
13.1 博弈学习实例 13.2 GAN原理 13.3 DCGAN实战 13.4 GAN变种 13.5 纳什均衡 13.6 GAN训练难题 13.7 WGAN原理 13.8 WGAN-GP实战 13.9 参考文献
14.1 先睹为快 14.2 强化学习问题 14.3 策略梯度方法 14.4 值函数方法 14.5 Actor-Critic方法 14.6 小结 14.7 参考文献
15.1 精灵宝可梦数据集 15.2 自定义数据集加载流程 15.3 宝可梦数据集实战 15.4 迁移学习 15.5 Saved_model 15.6 模型部署 15.7 参考文献
收费,提供答疑等全方位服务,不喜勿喷。