一个简单的神经网络

Tensorflow游乐场

http://playground.tensorflow.org

概念与名词解释

  • LAYER

    • HIDDEN LAYERS
      • 隐藏层
      • 输入层
      • 输出层
    • FEATURES
      • 输入数据方式
    • NEURON
      • 神经元
      • Bias
        • 偏置值
      • Weight
        • 权重
  • DATA

    • TEST DATA
      • 测试数据占比
    • Noise
      • 噪音
    • Batch Size
      • 批次数量
  • OUTPUT

    • Loss

      • 损失(代价)函数
      • 来描述拟合与真实观测的差异,是用来衡量人工神经网络(ANN)的预测值与实际值的一种方式
      • 种类
        • 二次代价函数
        • 交叉熵代价函数
        • 对数似然损失函数
        • ....
    • Test Loss

      • 测试数据Loss
    • Training Loss

      • 训练数据Loss
    • 拟合

      1555061329106

      • 欠拟合
      • 过拟合
        • 过拟合是指为了得到一致假设而使假设变得过度严格
        • 表现为在训练数据上有很低的Loss,但在测试数据上有很高的Loss
        • 防止过拟合的方法
          • 增大数据集
          • 正则化
          • Dropout
  • PARAMS

    • Epoch

      • 训练次数
    • Learning rate

      • 学习率

        1555120503360

        1555061590822

    • Activation

      • 激活函数

        • 激活函数是神经网络的一个重要组成部分。如果不用激活函数(即相当于激活函数为f(x)=x),在这种情况下,网络的每一层的输入都是上一层的线性输出,因此,无论该神经网络有多少层,最终的输出都是输入的线性组合,与没有隐藏层的效果相当,这种情况就是最原始的感知机。

        • Sigmoid

          1555061814492

        • tanh

          1555061827418

        • ReLU

          1555061835923

        • Linear

        • softmax

    • Regularization

      • 正则化
        • 损失函数里,加入对每个参数的惩罚度
        • L2
        • L1
    • Regularizateion rate

      • 正则化率
    • Problem type

      • 问题类型
    • 核心算法

      • 前向传播算法

        1555120674499

      • 优化算法

        • 反向传播算法

          1555120970570

          • 梯度下降算法

            梯度下降法是一种致力于找到函数极值点的算法,在机器学习中,我们一般通过这种方法获取模型参数,从而求得目标函数或代价函数的极值

            1555121331078

1555121662621 1555122077774

results matching ""

    No results matching ""