博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
数十种TensorFlow实现案例汇集:代码+笔记
阅读量:4027 次
发布时间:2019-05-24

本文共 1954 字,大约阅读时间需要 6 分钟。

这些案例适合那些想要清晰简明的 TensorFlow 实现案例的初学者。本教程还包含了笔记和带有注解的代码。

  • 项目地址:

教程索引

0 - 先决条件

机器学习入门:

  • 笔记:

  • MNIST 数据集入门

  • 笔记:

1 - 入门

Hello World:

  • 笔记:

  • 代码

基本操作:

  • 笔记:

  • 代码:

2 - 基本模型

最近邻:

  • 笔记:

  • 代码:

线性回归:

  • 笔记:

  • 代码:

Logistic 回归:

  • 笔记:

  • 代码:

3 - 神经网络

多层感知器:

  • 笔记:

  • 代码:

卷积神经网络:

  • 笔记:

  • 代码:

循环神经网络(LSTM):

  • 笔记:

  • 代码:

双向循环神经网络(LSTM):

  • 笔记:

  • 代码:

动态循环神经网络(LSTM)

  • 代码:

自编码器

  • 笔记:

  • 代码:

4 - 实用技术

保存和恢复模型

  • 笔记:

  • 代码:

图和损失可视化

  • 笔记:

  • 代码:

Tensorboard——高级可视化

  • 代码:

5 - 多 GPU

多 GPU 上的基本操作

  • 笔记:

  • 代码:

数据集

一些案例需要 MNIST 数据集进行训练和测试。不要担心,运行这些案例时,该数据集会被自动下载下来(使用 input_data.py)。MNIST 是一个手写数字的数据库,查看这个笔记了解关于该数据集的描述:

  • 官方网站:

更多案例

接下来的示例来自 TFLearn(),这是一个为 TensorFlow 提供了简化的接口的库。你可以看看,这里有很多示例和预构建的运算和层。

  • 示例:

  • 预构建的运算和层:

教程

TFLearn 快速入门。通过一个具体的机器学习任务学习 TFLearn 基础。开发和训练一个深度神经网络分类器。

  • 笔记:

基础

  • 线性回归,使用 TFLearn 实现线性回归:

  • 逻辑运算符。使用 TFLearn 实现逻辑运算符:

  • 权重保持。保存和还原一个模型:

  • 微调。在一个新任务上微调一个预训练的模型:

  • 使用 HDF5。使用 HDF5 处理大型数据集:

  • 使用 DASK。使用 DASK 处理大型数据集:

计算机视觉

  • 多层感知器。一种用于 MNIST 分类任务的多层感知实现:

  • 卷积网络(MNIST)。用于分类 MNIST 数据集的一种卷积神经网络实现:

  • 卷积网络(CIFAR-10)。用于分类 CIFAR-10 数据集的一种卷积神经网络实现:

  • 网络中的网络。用于分类 CIFAR-10 数据集的 Network in Network 实现:

  • Alexnet。将 Alexnet 应用于 Oxford Flowers 17 分类任务:

  • VGGNet。将 VGGNet 应用于 Oxford Flowers 17 分类任务:

  • VGGNet Finetuning (Fast Training)。使用一个预训练的 VGG 网络并将其约束到你自己的数据上,以便实现快速训练:

  • RNN Pixels。使用 RNN(在像素的序列上)分类图像:

  • Highway Network。用于分类 MNIST 数据集的 Highway Network 实现:

  • Highway Convolutional Network。用于分类 MNIST 数据集的 Highway Convolutional Network 实现:

  • Residual Network (MNIST) ().。应用于 MNIST 分类任务的一种瓶颈残差网络(bottleneck residual network):

  • Residual Network (CIFAR-10)。应用于 CIFAR-10 分类任务的一种残差网络:

  • Google Inception(v3)。应用于 Oxford Flowers 17 分类任务的谷歌 Inception v3 网络:

  • 自编码器。用于 MNIST 手写数字的自编码器:

自然语言处理

  • 循环神经网络(LSTM),应用 LSTM 到 IMDB 情感数据集分类任务:

  • 双向 RNN(LSTM),将一个双向 LSTM 应用到 IMDB 情感数据集分类任务:

  • 动态 RNN(LSTM),利用动态 LSTM 从 IMDB 数据集分类可变长度文本:

  • 城市名称生成,使用 LSTM 网络生成新的美国城市名:

  • 莎士比亚手稿生成,使用 LSTM 网络生成新的莎士比亚手稿:

  • Seq2seq,seq2seq 循环网络的教学示例:

  • CNN Seq,应用一个 1-D 卷积网络从 IMDB 情感数据集中分类词序列:

强化学习

Atari Pacman 1-step Q-Learning,使用 1-step Q-learning 教一台机器玩 Atari 游戏:

其他

Recommender-Wide&Deep Network,推荐系统中 wide & deep 网络的教学示例:

Notebooks

转载地址:http://uaobi.baihongyu.com/

你可能感兴趣的文章
系统菜单
查看>>
路漫漫其修远兮,吾将上下而求索(2)
查看>>
versions mac yosemite 下崩溃的修复
查看>>
github push 出现connection refused 的处理办法
查看>>
Linux配置sendmail实现PHP发送邮件
查看>>
c++ 特性回顾
查看>>
网站注册的时候,烦人的生日年份选择的改进想法
查看>>
游戏开发两年记 之 工程和理论需双剑合璧
查看>>
Nachos中switch汇编源码分析
查看>>
游戏开发两年之产品逻辑鸡肋么?
查看>>
secureCRT和Xshell登录Ubuntu
查看>>
secureCRT和Xshell登录ubuntu
查看>>
Apache下c语言的cgi如何获得Get,Post参数
查看>>
protobuf的使用初探
查看>>
ngx_http分析
查看>>
搭建一个php学习框架mycake
查看>>
MVC模式概念
查看>>
大量拉取网络数据的策略总结
查看>>
php把一个格式化的文件转换为一个二维数组
查看>>
DOM学习
查看>>