本文共 1954 字,大约阅读时间需要 6 分钟。
项目地址:
教程索引
0 - 先决条件
机器学习入门:
笔记:
MNIST 数据集入门
笔记:
1 - 入门
Hello World:
笔记:
代码
基本操作:
笔记:
代码:
2 - 基本模型
最近邻:
笔记:
代码:
线性回归:
笔记:
代码:
Logistic 回归:
笔记:
代码:
3 - 神经网络
多层感知器:
笔记:
代码:
卷积神经网络:
笔记:
代码:
循环神经网络(LSTM):
笔记:
代码:
双向循环神经网络(LSTM):
笔记:
代码:
动态循环神经网络(LSTM)
代码:
自编码器
笔记:
代码:
4 - 实用技术
保存和恢复模型
笔记:
代码:
图和损失可视化
笔记:
代码:
Tensorboard——高级可视化
代码:
5 - 多 GPU
多 GPU 上的基本操作
笔记:
代码:
数据集
一些案例需要 MNIST 数据集进行训练和测试。不要担心,运行这些案例时,该数据集会被自动下载下来(使用 input_data.py)。MNIST 是一个手写数字的数据库,查看这个笔记了解关于该数据集的描述:
官方网站:
更多案例
接下来的示例来自 TFLearn(),这是一个为 TensorFlow 提供了简化的接口的库。你可以看看,这里有很多示例和预构建的运算和层。
示例:
预构建的运算和层:
教程
TFLearn 快速入门。通过一个具体的机器学习任务学习 TFLearn 基础。开发和训练一个深度神经网络分类器。
笔记:
基础
线性回归,使用 TFLearn 实现线性回归:
逻辑运算符。使用 TFLearn 实现逻辑运算符:
权重保持。保存和还原一个模型:
微调。在一个新任务上微调一个预训练的模型:
使用 HDF5。使用 HDF5 处理大型数据集:
使用 DASK。使用 DASK 处理大型数据集:
计算机视觉
多层感知器。一种用于 MNIST 分类任务的多层感知实现:
卷积网络(MNIST)。用于分类 MNIST 数据集的一种卷积神经网络实现:
卷积网络(CIFAR-10)。用于分类 CIFAR-10 数据集的一种卷积神经网络实现:
网络中的网络。用于分类 CIFAR-10 数据集的 Network in Network 实现:
Alexnet。将 Alexnet 应用于 Oxford Flowers 17 分类任务:
VGGNet。将 VGGNet 应用于 Oxford Flowers 17 分类任务:
VGGNet Finetuning (Fast Training)。使用一个预训练的 VGG 网络并将其约束到你自己的数据上,以便实现快速训练:
RNN Pixels。使用 RNN(在像素的序列上)分类图像:
Highway Network。用于分类 MNIST 数据集的 Highway Network 实现:
Highway Convolutional Network。用于分类 MNIST 数据集的 Highway Convolutional Network 实现:
Residual Network (MNIST) ().。应用于 MNIST 分类任务的一种瓶颈残差网络(bottleneck residual network):
Residual Network (CIFAR-10)。应用于 CIFAR-10 分类任务的一种残差网络:
Google Inception(v3)。应用于 Oxford Flowers 17 分类任务的谷歌 Inception v3 网络:
自编码器。用于 MNIST 手写数字的自编码器:
自然语言处理
循环神经网络(LSTM),应用 LSTM 到 IMDB 情感数据集分类任务:
双向 RNN(LSTM),将一个双向 LSTM 应用到 IMDB 情感数据集分类任务:
动态 RNN(LSTM),利用动态 LSTM 从 IMDB 数据集分类可变长度文本:
城市名称生成,使用 LSTM 网络生成新的美国城市名:
莎士比亚手稿生成,使用 LSTM 网络生成新的莎士比亚手稿:
Seq2seq,seq2seq 循环网络的教学示例:
CNN Seq,应用一个 1-D 卷积网络从 IMDB 情感数据集中分类词序列:
强化学习
Atari Pacman 1-step Q-Learning,使用 1-step Q-learning 教一台机器玩 Atari 游戏:
其他
Recommender-Wide&Deep Network,推荐系统中 wide & deep 网络的教学示例:
Notebooks
转载地址:http://uaobi.baihongyu.com/