购买 ¥134.00 抽豪礼

Tensorflow2.x与神经网络实战-

共69节1476人学习李宁 课程详情
播放页问题反馈
  • TensorFlow基础

    • TensorFlow简介
    • 安装TensorFlow
    • TensorFlow中的常量(TensorFlow名字的由来)
    • 常量运算
    • 占位符类型
    • Tensorflow的变量
    • 初始化TensorFlow变量的方法
    • TensorFlow中常用的运算函数
    • 管理计算图
    • 计算图节点的依赖于生命周期
    • 用TensorFlow实现线性回归算法
    • 数据的归一化和标准化
    • 使用Tensorflow实现梯度下降算法
    • 保存和恢复模型
    • 可视化计算图
    • 使用Tensorboard可视化计算图
    • 命名作用域
    • 模块化
    • 变量作用域和共享变量
  • 感知机

    • 感知机-神经网络的起源
    • 用感知机表示与门电路
    • 用感知机表示或门电路
    • 用感知机表示与非门电路
    • 用Python实现感知机
    • 用Tensorflow2.x实现感知机
    • 用偏置代替阈值
    • 用Python和Tensorflow实现带偏置的感知机
    • 感知机可以表示所有的门电路吗
    • 用多层感知机处理异或门电路
    • 使用sklearn中的感知器对莺尾花进行分类
  • 神经网络

    • 什么是神经网络
    • 神经网络的sigmoid函数
    • 阶跃函数与sigmoid函数的几何意义
    • 激活函数ReLU以及其几何意义
    • 激活函数Tanh以及其几何意义
    • 矩阵的乘法
    • 三层神经网络的实现原理
    • 三层神经网络的完整实现
    • 选择神经网络输出层的激活函数
    • 改进softmax函数
    • 项目实战:利用神经网络识别数字图像(MNIST)【1】
    • 项目实战:利用神经网络识别数字图像(MNIST)【2】
  • 训练神经网络

    • 从手工调参到数据驱动
    • 训练数据和测试数据
    • 损失函数详解
    • 用Python实现常用的损失函数
    • 小批量版本的交叉熵函数
    • 用Tensorflow2.x实现回归损失函数
    • 用Tensorflow2.x实现分类损失函数
    • 用Python计算导数
    • 用Python计算偏导数
    • 用Python计算梯度
    • 梯度下降法
    • 计算神经网络的梯度
    • 项目实战:手工编写神经网络识别数字图像(1)
    • 项目实战:手工编写神经网络识别数字图像(2)
    • 项目实战:手工编写神经网络识别数字图像(3)
    • 项目实战:手工编写神经网络识别数字图像(4)
    • 项目实战:用Tensorflow2.x创建并训练模型,以及识别数字图像(1)
    • 项目实战:用Tensorflow2.x创建并训练模型,以及识别数字图像(2)
  • 误差反向传播法

    • 误差反向传播法
    • 计算图的优势
    • 反向传播的链式法则
  • 卷积神经网络(CNN)

    • 卷积神经网络的结构
    • 在CNN中为什么要加入卷积层
    • 卷积计算
    • 输入数据的填充
    • 卷积核的步幅
    • 池化层

    订阅失败

    Tensorflow2.x与神经网络实战
    Tensorflow2.x与神经网络实战 ...

    订阅列表已满,请先移出部分订阅内容。

    当前章节需购买后观看
    开通超级会员免费看!专家精选系列课程,满足你从入门到精通!更有问答月卡免费送,你的问题有问必答!
    提交答案

    购买课程

    扫码完成付费,可继续学习全部课程内容

    加载中...
    正在试验
    后自动删除环境
    课程实验
    本次实验时间已到期 00:00:00
    程序员研修院 v1.1.0
    一、播放器优化
    修改播放器默认倍速设置,增加1.25倍速
    调整目录展示形式,增加折叠/展开
    优化播放器的使用体验,有播放问题可以点击播放页内的”反馈“提交问题
    查看全部版本记录
    课件正在飞速打包中,请耐心等待几秒钟~