Machine Learning 补充之概率论

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/weixin_39820793/article/details/80231145

在补充这个时候还是犹豫了许久,去图书馆借了本浙大第三版版的《概率论与数理统计》,虽然版本有点老但感觉还是足够了。

概率论

1.谈谈概率

  这么我们来谈谈概率的一些基本常识,虽然大家都已经知道了,但是还是不可避免的要来谈一谈。

  首先,概率是事物发生可能性的大小,概率大的事物,发生的可能性大,但是不一定会发生,概率小也不意味着不会发生。
  其次,概率只有在谈及某个事件的时候才存在并有意义,且事件概率之和为一。我不知道这样子讲是否明确,我可以举个具体的例子:
  比如:抛硬币,在抛硬币的时候我们认为只会出现正面与反面(概率各为百分之五十),并且概率之和为一(这必然因为在这个事件里面不是正面就是反面),而我们在这个事件之外比如抛色子的时候,每个点出现的概率都是 16 ,但是这个 16 在我们抛硬币这个事件里面并没有意义。

2.累计分布函数: Φ(x)=F(xx0)

   Φ(x) 一定为单调递增函数
   min(Φ(x))=0,max(Φ(x))=1
  同时对于随机变量X的分布函数 F(x) ,存在非负函数 f(x) ,使对于任意实数x有:

F(x)=xf(f)dt

  则称X为连续性随机变量,其中函数f(x)称为X的概率密度函数,简称概率密度。

3.古典概型

  1.什么使古典概型呢?简单来说就是我们生活中经常遇到的一些简单的概率模型(比较简单,读者可以快速略过),我们看看书上的定义:

试验的样本空间只包含有限个元素。
试验中的每个基本事件发生的可能性相同。

  这种试验被称为等可能概型或者古典概型。

例子:
一个口袋装有6只球,其中4只使白球、2只红球,从袋中取球两次,每次随机地取一只,我们看看两种取球方式:
a)、一次取一只球,观察之后放回,搅拌均匀之后再取一球,这一种叫做放回抽样
b)、第一次取一球之后不放回袋中,第二次从剩余的球中再取一球。这种取球方式被称为不放回抽样。

  放回抽样比较简单就不加以举例,直接举不放回抽样的情况,课本的例子实在是太经典了,我就举前面三个。
  例1.

将n个球放入N( Nn )个盒子中去,试求每个盒子至多有一个球的概率(假设盒子容量不限)?

这一题很容易解决,对于N个盒子来说总有 NNNNN=Nn 种不同的放法,而每个盒子中至多放一个球共有 N(N1)(N2)[N(n1)] ,所以概率为

P=N(N1)(N2)[N(n1)]Nn=AnNNn

  再举个生日悖论

假设每个人的生日在一年365天中的任一天都是等可能的,即都等于 1365 ,那么随机选取 n(365) 个人,他们中有人生日为同一天的概率是?

  他们的生日各不相同的可能性为:

365364(365n1)365n
  因而,n个人中至少有两个人的生日相同的概率为:
P=1365364(365n1)365n

  然后我们经过计算可以得到如下结果:

n 20 23 30 40 50 64 100
p 0.411 0.507 0.706 0.891 0.970 0.997 0.9999997

  我们可以发现在一个仅仅有64人的班级里面,至少有两人生日相同的概率几乎为1了。

设有N件产品,其中有D件今从中任取n件,问其中恰有 k(kD) 件次品的概率是多少?

P=CkDCnkNDCnN

  2.条件概率

  什么是条件概率呢?就是在某个事件A发生下,B发生的概率,比如:

将一枚硬币抛两次,A为至少出现一个正面,B为两次抛出同一面,那么现在已知A已经发生了,那么B发生的概率是多少?

  在此,我们不可否认,A的发生是对B的发生概率有影响的,此时我们将这个概率记为

P(B|A)=13
  不少东西大家都知道了,我就直接把公式写出来
P(B|A)=P(AB)P(A)

4.小结

  这只是对之前概率论的一些补充,我也相信这份补充不会让大家很是满意,因为中间有很多东西都没有讲到,所以我决定在下一篇之中尝试着把概率论和贝叶斯讲清楚。

猜你喜欢

转载自blog.csdn.net/weixin_39820793/article/details/80231145