TyranitarX Connect.

神经元和Logistic回归模型

Word count: 340Reading time: 1 min
2019/07/03 Share

一、神经元——最小的神经网络


其中的w叫做权重,通过神经元的函数叫做激活函数。
x则是具体问题中抽取出来的特征,即会影响待分析问题的关键因素。因此,w即是每个不同的特征在待解决问题中的重要程度。
b则是偏置,即分类线\分类面与坐标轴焦点的值。偏置的存在是为了更好地进行数据的拟合。

二、Logistic回归模型

神经元→sigmoid激活函数→二分类Logistic回归模型

  • sigmoid函数


  • Logistic二分类回归模型

    P(Y = 0|x) =s(x)
    P(Y = 1|x) =1 - s(x)
    通过这两个公式很容易得出由sigmoid函数的特性很容易便可以处理二分类问题。

  • Logistic多分类回归模型

    神经元→多输出→多分类Logistic模型

    • w从向量扩展为矩阵
    • 输出W*x则变成向量

    例子:

    • X =[3,1,2]
    • W =[[0.4,0.6,0.5],[0.3,0.2,0.1]]

    那么:

    • Y=[y0,y1] = [2.8,1.3]
    • Y0 =W[0]*X = 2.8
    • Y1 =W[1]*X = 1.3

    同样可以进行对W的扩展,得到多输出的神经元

    多输出神经元→softmax→多分类Logistic回归模型

    P(Y = 0|x) =s(x) = \frac{1}{1+e^{-w^Tx}}
    (Y = 1|x) =1 - s(x) = \frac{e^{-w^Tx}}{1+e^{-w^Tx}}
CATALOG
  1. 1. 一、神经元——最小的神经网络
  2. 2. 二、Logistic回归模型
    1. 2.0.1. sigmoid函数
    2. 2.0.2. Logistic二分类回归模型
    3. 2.0.3. Logistic多分类回归模型
      1. 2.0.3.1. X =[3,1,2]
      2. 2.0.3.2. W =[[0.4,0.6,0.5],[0.3,0.2,0.1]]
      3. 2.0.3.3. Y=[y0,y1] = [2.8,1.3]
      4. 2.0.3.4. Y0 =W[0]*X = 2.8
      5. 2.0.3.5. Y1 =W[1]*X = 1.3
      6. 2.0.3.6. P(Y = 0|x) =s(x) = \frac{1}{1+e^{-w^Tx}}
      7. 2.0.3.7. (Y = 1|x) =1 - s(x) = \frac{e^{-w^Tx}}{1+e^{-w^Tx}}