
1. 체비셰브 부등식 : P(|X-μ| >= a) <= Var(X) / a^2
=> a = c*sd(X)이면, P(|X-μ| >=c*sd(X)) <= 1/c^2
=> 확률 변수 X의 값이 평균으로부터 표준편차의 c배 이상 떨어질 확률이 1/c^2이하라는 것을 의미. 즉 확률 변수가 평균에서 멀리 떨어질 수록 표준편차의 c배 이상 떨어질 확률이 빠르게 낮아지며 즉 데이터가 평균 근처에 집중되어 있음을 나타냄.
proof)
=> P(|X-μ| >= a) = P((X-μ)^2 >= a^2)
by Markov's Inequality / P(|X|>=a) <= E(|X|) / a) if a>0
=> P((X-μ)^2 >= a^2) < = E(|X-μ)^2) / a^2
E((X-μ)^2) = Var(X)이므로
=> P((X-μ)^2 >= a^2) < =Var(X) / a^2
=> P(|X-μ| >= a) < =Var(X) / a^2 성립.
'통계' 카테고리의 다른 글
| [통계] 지수분포 (하버드 확률론 기초) (0) | 2024.01.16 |
|---|---|
| [통계] 마르코프 부등식/Markov's Inequality (하버드 확률론 기초) (0) | 2024.01.14 |
| [통계] 젠슨 부등식 / Jenson's Equality (하버드 확률론 기초) (0) | 2024.01.12 |
| [통계] 코시-슈바르츠 부등식과 상관계수 (하버드 확률론 기초) (0) | 2024.01.12 |
| [통계] 균등 분포, 균등 분포와 역변환 샘플링 (하버드 확률론 기초) (0) | 2024.01.12 |