欢迎光临散文网 会员登陆 & 注册

有意思的概率与统计(五)

2023-07-24 13:02 作者:不能吃的大鱼  | 我要投稿

好的!概率的基本知识,我们就要结束啦!

本篇,将会是,最后一篇——独立性!

之后……我们就会,开始随机变量的内容了捏~

(还记得什么是随机变量吧,应该吧应该吧~)


Chapter  One  随机事件与概率

1.5  独立性

什么是独立性?如何理解独立性?

所谓“独立”,从汉语的角度来理解,就是事件之间毫不相关。(当然,只是数学意义上的不相关,实际上,如果考虑哲学角度,哪有毫不相关的事件。)

比如说,今天是否会下雨,和明天你是否会吃早饭,这二者之间并没有绝对的联系。那么,按照我们最基本的想法,这二者之间本就应该是独立的。我们想要研究的,就是这样的两个以及多个事件之间,概率应该有什么样的性质。

我们已经推导过概率的加法公式,这是有关并事件的性质。那么,交事件又会有什么样的性质呢?

在以前的几篇当中,我们并没有仔细研究交事件的概率如何求解,因为交事件的概率与事件之间的关系高度相关。比如说,如果事件之间有包含关系,那么“小”的事件的概率就等于交事件的概率。所以,我们很难就一般的几个事件来描述交事件的概率求法。

但是,对于独立的两个事件,我们却很容易有这样的认识:

P(AB)%3DP(A)P(B)

如果单纯地从定义角度,我们至此已经可以说,这就是两个事件A和B互相的定义。

但是,仅仅提出定义,似乎很难理解,这样的定义是否真的合适。虽然这或许符合我们的直接想法,但是,有没有一种说明,能够更清晰地表明,这样的定义确实合理呢?

我们不难看到,事件如果满足我们认识当中的独立条件,本质上是说明,两个随机现象的样本空间没有的交集为空。我们记,事件A是样本空间%5CvarOmega%20_1的子集,事件B是样本空间%5CvarOmega%20_2的子集。那么,两个事件各自的概率就应该等于:

P(A)%3D%5Cfrac%7B%5Ctext%20%7BCard%7D(A)%7D%7B%5Ctext%20%7BCard%7D%20(%5CvarOmega_1)%7D%20

P(B)%3D%5Cfrac%7B%5Ctext%20%7BCard%7D(B)%7D%7B%5Ctext%20%7BCard%7D%20(%5CvarOmega_2)%7D%20

(Card代表的是事件和样本空间的合适的集合度量。)

由于这两个随机现象无任何关联,没有任何共同的现象。因此,想要将这两个现象建立联系,就只能人为地将它们复合到一起。这种复合的方式,我们是略有了解的,那就是样本空间做直积:

%5CvarOmega%20%3D%5CvarOmega%20_1%5Ctimes%20%5CvarOmega%20_2

(我们在数学分析部分的多元函数篇章有提到过,多维Euclid空间实际上就是实数集多次直积的结果。如果想要继续深入了解,陈纪修老师的《数学分析》等数学分析教材以及很多实变函数和泛函分析的教材都应该会有所涉及,可以去阅读一下~)

如果我们将样本空间想象为离散的,那么不难想到:

%5Ctext%20%7BCard%7D%20(%5CvarOmega)%3D%5Ctext%20%7BCard%7D%20(%5CvarOmega_1)%5Ctimes%20%5Ctext%20%7BCard%7D%20(%5CvarOmega_2)

%5Ctext%20%7BCard%7D%20(AB)%3D%5Ctext%20%7BCard%7D%20(A)%5Ctimes%20%5Ctext%20%7BCard%7D%20(B)

(对于连续的样本空间,度量也将类似。我们就不严格叙述了,这并不属于我们目前的研究范畴~)

这样,我们就得到了:

%5Cbegin%20%7Bequation%7D%0A%5Cbegin%20%7Baligned%7D%0AP(AB)%26%3D%5Cfrac%7B%5Ctext%20%7BCard%7D%20(AB)%7D%20%7B%5Ctext%20%7BCard%7D%20(%5CvarOmega)%7D%20%20%5C%5C%0A%26%3D%5Cfrac%7B%5Ctext%20%7BCard%7D%20(A)%5Ctimes%20%5Ctext%20%7BCard%7D%20(B)%7D%20%7B%5Ctext%20%7BCard%7D%20(%5CvarOmega_1)%5Ctimes%20%5Ctext%20%7BCard%7D%20(%5CvarOmega_2)%7D%20%20%5C%5C%0A%26%3D%5Cfrac%7B%5Ctext%20%7BCard%7D%20(A)%7D%7B%5Ctext%20%7BCard%7D%20(%5CvarOmega_1)%7D%20%5Ctimes%20%5Cfrac%7B%5Ctext%20%7BCard%7D%20(B)%7D%7B%5Ctext%20%7BCard%7D%20(%5CvarOmega_2)%7D%20%5C%5C%0A%26%3DP(A)P(B)%0A%5Cend%20%7Baligned%7D%0A%5Cend%20%7Bequation%7D

这确实符合我们对事件独立性的定义。

这样,我们就将自己的理解加入了定义当中,更加有理有据地说明了事件独立性定义的合理性。

于是,我们现在可以说:

事件A,B是相互独立,如果它们概率满足:

P(AB)%3DP(A)P(B)

否则,称之为两个事件不独立,或者相依

对于事件之间相互独立的定义我们已经详细地介绍过了。那么,接下来,还是一样,我们就要就独立性来研究事件的概率具有哪些性质和公式。

首先,我们能够想到的是,P(A)与P(AB)之间是有着直接的关系的,这一点在概率的性质一节当中已经有所涉及:

 P(A)%3DP(AB%5Ccup%20A%5Coverline%20B)%3DP(AB)%2BP(A%5Coverline%20B)

将事件相互独立的定义式代入其中,就得到:

P(A)%3DP(AB)%2BP(A%5Coverline%20B)%3DP(A)P(B)%2BP(A%5Coverline%20B)

进而得到:

P(A%5Coverline%20B)%3DP(A)-P(A)P(B)%3DP(A)%5B1-P(B)%5D%3DP(A)P(%5Coverline%20B)

这表明,如果事件A,B互相独立,那么事件A与事件B的对立事件相互独立。

进一步,考虑到事件A是其对立事件的对立事件,因此就有事件A的对立事件与事件B的对立事件相互独立。

于是,我们就得到了一系列的独立关系。

以上的讨论都还只是集中于两个事件相互独立。但是,多个事件的相互独立的定义我们也不难想到。很明显,它们至少要满足:

(1)任意两个事件之间都是相互独立的;

(2)任意多个事件都是相互独立的。

写成表达式,就是:

多个事件相互独立的定义

从定义来讲并不意外,不过,有了多个事件相互独立的概念,我们就可以研究,试验的独立性。

很多时候,就像我们在上一节提到过的Bayes公式的应用当中的癌症检测问题,实际上就是一个后检测结果受前检测结果影响,导致概率发生了改变。这个时候,由于我们对检测对象群体的选择有所改变,因而并不能够说这两次检测之间是毫无关系的。

但是,多数情况下,如果我们并不改变测试群体和测试条件,而单纯地只是进行随机试验。那么,这几次试验的结果之间虽然大体相同,但是彼此却互不影响,这种情况下,我们就可以认为这几次试验是彼此相互独立的。

对于两个试验相互独立,我们定义:

设有两个试验E_1E_2,假如试验E_1的任意结果(事件)与试验E_2的任意结果(事件)都是相互独立的事件,则称这两个试验相互独立

多个试验相互独立的定义也是以此类推。

如果我们所做的各个试验是同一种试验,我们就称之为n重独立重复试验。如果每次试验的结果只有两种,就称之为n重Bernoulli试验

思考:

  1. 求以下事件的概率

    (1)三人独立地破译密码,他们各自单独地破译出的概率分别为1/5,1/4,1/3。最终密码被破译出来;

    (2)甲、乙两人独立地对同一目标设计一次,其命中率分别为0.8和0.7。在目标被击中的情况下,它是被甲击中的;

    (3)一周内三台机床需要维修的概率分别为0.9,0.8和0.85。一周内至少有一台机床要维修;

    (4)一射手对同一目标独立地进行四次射击。若至少命中一次的概率为80/81,该射手一次射击就命中;

  2. 假设P(A)%3D0.4%EF%BC%8CP(A%5Ccup%20B)%3D0.9,在以下情况下求P(B)

    (1)A,B不相容;

    (2)A,B独立;

    (3)A包含于B;

  3. 设A,B,C两两独立,且事件ABC非空。试回答以下问题:

    (1)如果P(A)=P(B)=P(C)=p,试求使P(A%5Ccup%20B%5Ccup%20C)最大的p;

    (2)如果在(1)的条件下,p<1/2,且P(A%5Ccup%20B%5Ccup%20C)=9/16,求P(A);

  4. 试回答下列问题:

    (1)每门高射炮几种飞机的概率为0.3,独立同时射击时,要以99%的把握击中飞机,那么至少需要几门高射炮?

    (2)投掷一枚骰子,至少需要投掷多少次才能保证事件=“至少有一次点数为6”的概率大于1/2?

    (3)每次射击的命中率为0.5,那么至少需要射击多少次才能使事件=“至少击中一次”的概率不小于0.95?

  5. 证明:

    (1)若0<P(B)<1,则事件A与B独立的充分必要条件为:

    P(A%7CB)%3DP(A%7C%5Coverline%20B)

    (2)若0<P(A)<1,0<P(B)<1,且:

    P(A%7CB)%2BP(%5Coverline%20A%7C%5Coverline%20B)%3D1

    那么,事件A与B独立;

    (3)若P(A)>0,P(B)>0,且A与B独立,则A与B相容。


最後の最後に、ありがとうございました!

有意思的概率与统计(五)的评论 (共 条)

分享到微博请遵守国家法律