接下来我们介绍一些期望值重要的性质 上个星期我们有学过 αg(x)+βh(y) 两个加在一起的期望值会等于各自 g(x) 跟 h(y) 分别各自取期望值之后乘上 α、β 加起来是一样的 那在这样的 case 下 两个随机变数的情况之下 有没有类似的性质 有的 就是这个 就是 h1(x,y) 这个函数乘上 α 加上另外一个 (x,y) 函数乘上 β 两个加起来再取期望值会等于什么 会等于各自这个函数取期望值之后再各自乘 α、β 加起来 那我们来证明一下这个性质 我们先考虑如果 x,y 两个都是 discrete(离散)的 所以我们就用它们 JOINT PMF 假设你知道用 JOINT PMF 来证明这个事情 你看看 αh1(x,y)+βh2(x,y) 根据这个定义 这两个函数相加的期望值 这两个相加依然是 (x,y) 的函数 所以根据前面讲 你怎么算 (x,y) 的期望值 就是把整个函数值将 (x,y) 代进去之后乘上 JOINT PMF 然后对 x、对 y 分别做 summation 负无穷大到无穷大 你把这个 p(x,y) 乘进去 乘进去之后 比如第一个 它乘进去乘到 h1(x,y) 然后就变成 summation x 、summation y 的 α 乘上 h1(x,y) 、 乘上 p(x,y) 这个东西另外一个就是 p(x,y) 乘上 βh2(x,y) 你把这个 summation 拆成两个部分 一个部分就是 h1 的 乘上 p(x,y) 另外一个部分就是 h2 的 乘上 p(x,y) 那你看里面的这个 α 其实本来这系数在 sumamtion 里面 是不是可以拉到外面去 是可以拉到外面去的 所以这边就变成是 α 倍的 summation h1(x,y) 乘上 p(x,y) 然后把 x 从负无穷大到无穷大、y 从负无穷大到无穷大 你看看你把 h1(x) 乘上 p(x,y) 然后 x 从 summation 负无穷大到无穷大、y 从 summation 负无穷大到无穷大 这个出来是什么 这不就是h1(x,y)的期望值吗 对不对 同样道理 另外这一个部分是 h2(x,y) 乘上 p(x,y) 然后对 x 从负无穷大积到无穷大 y 从负无穷大 summation 到无穷大 summation 出来是什么 是 h2(x,y) 的期望值 所以最后果然等于 α 倍的 h1(x,y) 的期望值 加上 β 倍的 h2(x,y) 的期望值 也就是这个性质 在 discrete 的 case 下我们证明它是成立的 好 那这就是 discrete 的 那离散的 case 是这样 那连续的呢 连续的 case 跟这个很像 差别在什么地方 刚才的 discrete 的 case 是 summation 那连续的话是什么 连续的话应该是积分 同样的东西 我们在连续的时候证明一下 αh1(x,y)+βh2(x,y) 它的期望值是什么 是这个函数乘上 JOINT PDF 把它积分 x 从负无穷大积到无穷大、y从负无穷大积到无穷大 这是积分 积分也是一样 你可以把它乘进去 分别乘进去以后 把它拆开成两个积分 变成一个式 h1(x,y) 乘上 f(x,y) 的 dxdy 然后 但是一样 α 我们把它拉到外面去 所以 α 跑到外面来 这个样子看起来就像什么 α 倍的 你看就像什么 就是 h1(x,y) 期望值 连续的PDF 期望值就是这样子 同样的 第二个部分就是 h2(x,y) 乘上 JOINT PDF 然后 dxdy 从负无穷大积到无穷大 这东西出来是什么 就是 h2(x,y) 的期望值乘上 β 所以发现这个性质 在 x,y 是连续的情况之下也是成立的 只是刚才的那个 summation 变成积分 其实这个证明方式是非常类似的 好 这是一个 很重要的期望值性质 跟大家介绍 另外 我们介绍另外一个 很重要的期望值的性质 这是跟 x,y 的独立性有关系 如果 x跟 y 这两个 random variable 在概率上是独立的话 那这个很重要的性质是什么 就说 g(x) 乘上 h(y) 也就是这个函数只跟 x 有关 这个函数只跟 y 有关 这两个乘在一起 如果取期望值 会等于 这个东西只单纯去算它的期望值 乘上另外一个只单纯去算 y 的期望值 这有什么好处 你看看 事实上这个 你如果要算这个东西的话 g(x) 乘上 h(y) 这是 x,y 的函数 如果你要算它的期望值 如果是discrete 的 case 的话 你要做二重积分 二重的 summation 如果 x,y 是连续的话 你就要乘上 PDF 去做双重积分 双重积分其实很难积 可是你看这个东西 这是 g(x) 的期望值 只跟 x 有关 所以如果 x 是连续的话 g(x) 只要乘上一个 x 的PDF 这 x 的 PDF 去做什么 对 x 的积分做一重积分就好 所以你看这个东西 本来这个东西很复杂 可能要做双重积分或双重的 summation 在这个地方只需要做一重的积分或一重的 summation 乘上这个东西 也是一重的积分或一重的 sumamtion 所以两个一重的积分或 summation 会比做一个双重的积分、summation 通常会比较容易做 所以这是一个很好的性质 如果 x 跟 y 是独立的话 一个 x 的函数乘上一个 y 的函数 两个乘起来 去算这个 JOINT 的 PDF 或 PMF 下的期望值 可以化解成是 g(x) 只在自己的 x distribution下算的期望值 还有 h(y) 只在 y 的 distribution 下取期望值 这就简单很多了 什么意思 我们看看这个证明 假设你这个 x,y 是 discrete 的 我们就用 PMF 来看 g(x) 乘上 h(y) 它的期望值 这是一个 x,y 的函数 所以这是什么 就把 g(x)、h(y) 乘上 JOINT PMF 然后对 x 跟对 y 去做积分 从负无穷大到无穷大 那这个东西因为 x,y 是独立的 这个东西是什么 这东西是(probabilty)P(X=x 且 Y=y) 因为 x 是 independent(独立的) 所以这个东西等于什么 这个等于 X=x 的概率乘上 Y=y 的概率 因为两个是 independent 所以 X=x 且 Y=y 就是等于 X=x 的 概率 加上 Y=y 的概率 两个相乘 好 所以这个东西 是什么 这不就是等于 x 的 PMF 值乘上 y 的 PMF 值 所以发现 原来两个是 independent 的话 E(x,y)的 JOINT PMF 值会等于各自的 PMF 值相乘 所以我们代进去 代进去就是这个样子 这个整个 JOINT PMF 就变成 p(x) 乘上 p(y) 这个 summation 如果把它整理一下 这个只跟 x 有关的 拉到这边来 只跟 y 有关的 留到里面 整理一下发现 它可以整理成 g(x) 乘上 p(x) 对 x 做 summation 这整个东西乘上 h(y) 乘上 p(y) 这个上面双重的 summation 可以拆成 两个只跟 x 有关的 summation 只跟 y 有关的summation 那你看看 把 g(x) 乘上 p(x) 就是 x 的 PMF 然后对 x 做 summation 就 g(x) 的期望值 就是这个东西 同样的道理 后面这个括号 h(y) 乘上 y 的 PMF 再对 y 的从负无穷大加到无穷大 就是 h(y) 的期望值 所以我们证明 的确 如果 x 跟 y 是独立的话 那 g(x) 乘上 h(y) 的期望值 两个相乘以后再取期望值 会等于 各自在 x 的这个部分取期望值 各自在 y 取期望值之后 再相乘 这是一个非常好用的定理 原本这个地方 中间这个等号 它要做一个什么 这整个地方 要做一个二重的 summation 现在只要做两个一重的 summation 那好做多了 这是 discrete 的case 那连续的case呢 也是一样 我们看一下连续的case 连续的 case 现在期望值变成是 乘上 PDF 之后 再去做积分 g(x) 乘上 h(y) 再乘上两个PDF JOINT PDF 再做期望值 再做积分 算期望值 那也是一样 如果 x 跟 y 是已经 independent 的话 前面有讲过 前面有介绍过 这个 JOINT PDF 如果 x y 是 independent 的话 它这个 x,y 的 JOINT PDF 会等于 x 的 PDF 乘上 y 的 PDF 在最后变成这个样子 g(x) 乘上 h(y) 乘上 fX(x) 乘上 fY(y) dx dy 同样的 把它整理一下 跟 x 有关的 拉到这边来 里面就只有跟 y 有关的 所以发现 这个也可以整理出这个样子 是什么 就是一个只跟 f(x) 有关的积分 自己先积了 g(x) 乘上 fX(x) dx 从负无穷大积到无穷大 这个是什么 这不就是 g(x) 的期望值吗 另外这个是什么 这个只跟 y 有关的积分 h(y)乘上 fY(y)dy 从负无穷大积到无穷大 这个是什么 这不就是 h(y) 的期望值吗 对不对 所以发现 原来中间这个很难做的二重积分 原来很难做的 现在只需要 做这两个一重的积分 两个一重的积分 会比一个二重的积分好做多了 所以最后就等于 各自 对 x 做积分 算出 g(x) 的期望值 对 y 做积分 算出 h(y) 的期望值 好 这个就是 again 这个性质在连续的 case下是成立的 大家记住这个事情 这个东西非常的重要 因为期望值 在很多时候我们在做研究或者是干什么 做理论推导 期望值是我们最常算的一个东西之一 然后 我们很多时候 我们很喜欢随机变数的独立 为什么 就是因为这个性质 这个性质可以让我们算积分 算什么 不用再算多重积分 太有用了 太好算了 太好做了 ok 好 最后我们要介绍的一个东西 是跟 Variance 有关的性质 我们现在如果考虑一下 这个 X 加 Y 这两个随机变数加在一起 X 加 Y 它的 Variance 会是什么样子 根据定义 以前说某个东西的 Variance 是什么 任何一个东西的 Variance 都是它自己减掉它自己的期望值 取平方之后 再取期望值 对不对 所以我们这边 再看成是什么 我们看成是 X 加 Y 的 Variance X 加 Y X 是个 random variable Y 也是 random variable 这两个都是 ran 的东西 加在一起还是 ran 的 还是 random variable 所以探讨 现在看成是 X 加 Y 的 random variable Variance 那就等于 这个 random variable 减掉它自己的期望值 这整个东西的平方 那我问你 X 加 Y 的期望值是什么 刚刚前面有学过 两个东西相加再取期望值 可以把它各自取的期望值相加 对不对 所以 X 加 Y 的期望值就等于什么 等于 X 的期望值加 Y 的期望值 就等于 μX 加 μY啦 所以这整个东西就变成是 X 加 Y 减去 μX 减去 μY 这个 random variable 减掉它自己的期望值 再平方 这平方呢 我们来看一下 把这东西 X 减去 μX 叫作 A Y 减去 μY 叫作 B 这不就是 A 加 B 的平方吗 A 加 B 平方就是 A 平方加 B 平方加上 2AB 所以这个东西把它乘开 最后长成是这个样子 它就是 (X - μX ) 的平方 加上 ( Y-μY) 的平方 加上 2(X-μX) *(Y-μY) 这其实还是期望值 但是前面有学过 一堆东西加在一起取期望值 跟它们各自取期望值相加是一样的 所以我们就把这三个拆开来 拆成这三个 (X-μx)^2的期望值 加上 (Y-μY)^2 的期望值 加上 2倍的(X-μX)*(Y-μY)的期望值 刚刚提到 (X-μX)^2 的期望值是什么 这个期望值就是 就是 x 的Variance 那第二个(Y-μY)^2的期望值是什么 就是 y 的 Variance 这个东西就是 y 的 Variance 对不对 最后 这东西我们给他一个名字 (X-μX)*(Y-μY) 我们定义做 Cov(X,Y) 如果你看到 Cov(X,Y) 就知道它是什么意思 代表 (X-μX)*(Y-μY) 它的期望值 这东西 如果用Cov(X,Y)表示 最后 X+Y 的 variance 可以表示成 就是 Var(X)加上 Var(Y)加上2倍的 Cov(X,Y) ok 如果你以后需要算 X+Y的 Variance 的话 可以跟 X 跟 Y 的 Variance 有关系 但是它又多出了一项 Cov(X,Y) 这个 Cov(X,Y) 当 X 跟 Y 是 independent 的时候 它有一个特殊的现象 我们来看一下 当 X Y是 independent 的话 我们前面学过 一个单单只有 X 的函数 你看这个 (X-μX) 只跟 x 有关 跟另外一个 只跟 y 有关系的函数 H(y) (Y-μY) 是不是只跟 y 有关系 是啊 一个只跟 x 有关 一个只跟 y 有关的函数 两个相乘去取期望值 刚才讲过 如果 x y 独立的话 可以变成什么 可以变成各自取期望值再相乘 这是前面一页讲的 所以这个东西 2(X-μX)*(Y-μY) 的期望值可以写成什么 可以写成 (X-μX)自己先取期望值 乘上(Y-μY)自己取期望值 对不对 就写成是等于2(X-μX)的期望值 乘上(Y-μY)的期望值 那老师问你 (X-μX)的期望值是什么 任何一个 random variable X 减掉自己的 μX 再取期望值 刚才我们不是讲可以拆开吗 这就变成 X 的期望值 减去 μX 是什么 就是零 那这个东西也是一样 这东西呢 是(Y-μY)的期望值 你可以把它拆开 拆出来变成 Y的期望值 减去 μY的期望值 μY的期望值 μY是个 cosnt(常量) μY的期望值就是μY 那 Y 的期望值 不就是等于 Y 的期望值 减掉μy的期望值 对不对 而前面这个东西 这东西不就是μY吗 后面这东西 μY的期望值 μY 是个const μY 的期望值也是μY 所以 μY 减 μY 最后等于零 所以 你看看 当你 x y 都是独立的时候 (X-μX)*(Y-μY) 的期望值 也就是 Cov(X,Y) Cov(X,Y)=零 所以 最后Cov(X,Y) 等于零的情况下 Var(X+Y) 就是 只剩下这两个了 也就是剩下 Var(X) 加上 Var(Y) ok 这就是在 X Y 都独立的情况下 才有这样的性质 X Y 如果是独立 Var(X+Y)可以等于各自 Var 的相加 但是X Y 不独立的时候 千万不要忘了这个 Cov 你要加一个 Cov 项在这边 最后 我们来回顾下这一节 这一节一开始 我们是介绍了在两个随机变数的情况下 你的期望值是怎么定义的 对于任何一个x y 的函数 你就把x y函数乘上JOINT PMF 把summation 对x 跟对y 都summation 从负无穷大到无穷大 如果是连续的话 就是把这个函数乘上 JOINT PDF 然后对 x 对 y 积分 从负无穷大积到无穷大 另外我们也介绍期望值一些性质 包括 两个东西先加起来 再取期望值 会等于 各自取期望值相加 或者两个一相乘 如果是 independent 的话 特别随机变数是独立的话 期望值的计算也会比较简单 一个只有 x 的函数 一个是只是 y 的函数 两个相乘 去取期望值 如果 x 跟 y 是 independent 的话 可以变成是跟 x 有关的 只单独对 x 取期望值 跟 y 有关的 只单独对 y 取期望值 各自做一重的期望值之后 再把它相乘 会简化很多 这个礼拜 我们主要的介绍是针对 两个随机变数的情况之下 概率分布和期望值 我们这个礼拜就介绍到这边 谢谢大家