目录:
从基础概率推导贝叶斯公式,朴素贝叶斯公式(1)学习先验概率(2)学习后验概率(3)学习LR和linear regreeesion之间的区别(4)推导sigmoid function公式(5)1. B 1 B1 B1, B 2 B2 B2…两两互斥,即 B i ∩ B j = ∅ Bi∩ Bj = ∅ Bi∩Bj=∅, i ≠ j i≠j i̸=j , i , j = 1 , 2 , . . . . , i,j=1,2,...., i,j=1,2,....,且 P ( B i ) > 0 , i = 1 , 2 , . . . . P(Bi)>0,i=1,2,.... P(Bi)>0,i=1,2,....;
2. B 1 ∪ B 2 ∪ . . . . = Ω B1∪B2∪....=Ω B1∪B2∪....=Ω ,则称事件组 B 1 , B 2 , . . . B1,B2,... B1,B2,...是样本空间Ω的一个划分;
设 B 1 , B 2 , . . . B1,B2,... B1,B2,...是样本空间 Ω Ω Ω的一个划分,A为任一事件,则 P ( B ) = ∑ i = 1 n P ( B ∣ A i ) P ( A i ) P(B)=\sum_{i=1}^nP(B\mid A_i)P(A_i) P(B)=i=1∑nP(B∣Ai)P(Ai)
贝叶斯公式: 已知 P ( A ∣ B ) 、 P ( B ) P(A\mid B)、P(B) P(A∣B)、P(B),求 P ( B ∣ A ) P(B\mid A) P(B∣A)的过程。 P ( B ∣ A ) = P ( B ∩ A ) P ( A ) = P ( A ∩ B ) P ( A ) P(B\mid A)=\dfrac{P(B\cap A)}{P(A)}=\dfrac{P(A\cap B)}{P(A)} P(B∣A)=P(A)P(B∩A)=P(A)P(A∩B) 把 P ( A ∩ B ) P(A\cap B) P(A∩B)和 P ( A ) P(A) P(A)分别替换得到: P ( B ∣ A ) = P ( A ∣ B ) P ( B ) P ( A ) = P ( A ∣ B ) P ( B ) P ( A ∣ B ) P ( B ) + P ( A ∣ B ’ ) P ( B ’ ) P(B\mid A)=\dfrac{P(A\mid B)P(B)}{P(A)}=\dfrac{P(A\mid B)P(B)}{P(A\mid B)P(B)+P(A\mid B’)P(B’)} P(B∣A)=P(A)P(A∣B)P(B)=P(A∣B)P(B)+P(A∣B’)P(B’)P(A∣B)P(B)将公式形式化之后得到 P ( B i ∣ A ) = P ( A ∣ B i ) P ( B i ) ∑ i = 1 n P ( A ∣ B i ) P ( B i ) P(B_i \mid A)=\dfrac{P(A\mid B_i)P(B_i)}{\sum_{i=1}^n P(A\mid B_i)P(B_i)} P(Bi∣A)=∑i=1nP(A∣Bi)P(Bi)P(A∣Bi)P(Bi) P ( A ∣ B ) P(A|B) P(A∣B):在 B B B条件下的事件 A A A的概率,在贝叶斯定理中,条件概率也被称为后验概率,即在事件 B B B发生之后,我们对事件A概率的重新评估。
P ( B ∣ A ) P(B|A) P(B∣A):在 A A A条件下的事件 B B B的概率,与上一条同理。
P ( A ) P(A) P(A)与 P ( B ) P(B) P(B)被称为先验概率(也被称为边缘概率),即在事件B发生之前,我们对事件 A A A概率的一个推断(不考虑任何事件 B B B方面的因素),后面同理。
P ( B ∣ A ) / P ( B ) P(B|A)/P(B) P(B∣A)/P(B)被称为标准相似度,它是一个调整因子,主要是为了保证预测概率更接近真实概率。
综上贝叶斯定理表述为: 后验概率 = 标准相似度 * 先验概率。
逻辑回归的模型本质上是一个线性回归模型,逻辑回归都是以线性回归为理论支持的。但线性回归模型无法做到sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。
Sigmoid函数: g ( z ) = 1 1 + e − z g(z)=\frac{1}{1+e^-z} g(z)=1+e−z1 由这个函数可得:当z趋于正无穷时,g(z)趋于1,而当z趋于负无穷时,g(z)趋于0。 对该函数求导有: g ′ ( z ) = g ( z ) ( 1 − g ( z ) ) g'(z)=g(z)(1-g(z)) g′(z)=g(z)(1−g(z))