똑바른 날개

[확률과 통계 16] Discrete Multiple RVs - Introduction 본문

공부/확률과 통계

[확률과 통계 16] Discrete Multiple RVs - Introduction

Upright_wing 2026. 1. 13. 21:00
반응형

01) Multiple Random Variables

01_multiple random variable


Multiple Random Variables

한 번의 시행에서 두 개 이상의 서로 다른 확률 변수를 동시에 정의하는 경우를 말한다.

  • 하나의 시행에서 서로 다른 현상을 각각의 확률 변수로 표현한다
  • 주된 목적은 확률 변수들 사이의 관계(correlation, dependence) 를 분석하는 것이다
  • 즉, 각 random variable이 서로에게 영향을 미치는지를 알고 싶을 때 사용된다

두 개 이상의 확률 변수로 정의된 확률 분포를 Joint distribution이라 부른다.

  • Discrete random variables
  • Joint probability distribution
  • Continuous random variables
  • Joint probability density function (Joint PDF)

02_Example Discrete case – 직관적 예시


사람의 몸무게를 동시에 관측한다고 가정하자.

  • $ X $ : 키
  • $ Y $: 몸무게

이 경우 데이터는 항상 다음과 같은 쌍(pair) 으로 관측된다.

$$
\begin{aligned}
{(X, Y) \mid (x_1, y_1), (x_2, y_2), (x_3, y_3), \ldots }
\end{aligned}
$$

왜 Single Random Variable로는 부족한가?

키와 몸무게를 각각 독립적인 single RV로만 보면,

$$
\begin{aligned}{X \mid x_1, x_2, x_3, \ldots }, \quad {Y \mid y_1, y_2, y_3, \ldots }\end{aligned}
$$

  • 키와 몸무게 사이의 Correlation를 알 수 없다
  • 키가 클수록 몸무게도 증가하는가? 와 같은 질문에 답할 수 없다

→ 이런 변수 간 관계를 분석하기 위해 Multiple Random Variables가 필요하다.

03_Joint Probability Distribution


Joint Probability Distribution의 표현

$n$ 개의 확률 변수가 있을 때, 이들이 특정 값을 동시에 가질 확률을 다음과 같이 표현한다.

$$
\begin{aligned}P(X_1 = x_1,; X_2 = x_2,; \ldots,; X_n = x_n)\end{aligned}
$$

이 분포는 확률 변수들 사이의 의존성 구조를 모두 포함한다.

Marginal Probability Distribution

Joint distribution에서 특정 확률 변수 하나만을 고려한 분포를 Marginal distribution이라 한다.

$$
\begin{aligned}P(X_1 = x_1),; P(X_2 = x_2),; \ldots,; P(X_n = x_n)\end{aligned}
$$

  • 다른 변수들은 합(sum) 을 통해 제거된다
  • Joint distribution에서 부분적으로 추출된 분포이다

04_Example Discrete Two Random Variables


동전을 3번 던지는 실험을 고려하자.

  • $X$: 한 번 던졌을 때의 결과
    • 앞 = 1, 뒤 = 0
  • $Y$: 3번 던졌을 때 나온 앞의 총 개수
    • $Y \in {0,1,2,3}$

Marginal Distributions

$X$ $ P(X = x) $ $ Y $ $ P(Y=y) $
0 1/2 0 1/8
1 1/2 1 3/8
    2 3/8
    3 1/8

Joint probability of (X, Y)

$P(X, Y)$ $X = 0$ $X = 1$
$Y = 0$ $P(X=0, Y=0) = 1/8$ $P(X=1, Y=0) = 0$
$Y = 1$ $P(X=0, Y=1) = 2/8$ $P(X=1, Y=1) = 1/8$
$Y = 2$ $P(X=0, Y=2) = 1/8$ $P(X=1, Y=2) = 2/8$
$Y = 3$ $P(X=0, Y=3) = 0$ $P(X=1, Y=3) = 1/8$

이 표는

  • 각 결과 $(X,Y)$가 발생할 확률을 나타내며
  • 두 확률 변수의 Joint 구조를 직접적으로 보여준다

05_Joint Distribution의 특징


1. 전체 확률의 합은 1

$$
\begin{aligned}\sum_{x} \sum_{y} P(x, y) = 1,\quad \text{for two random variables } X \text{ and } Y\end{aligned}
$$

이는 모든 가능한 결과의 확률을 더하면 반드시 1이 되어야 한다는 의미이다.

2. Joint → Marginal (가능)

$$
\begin{aligned}P(X = x)&= \sum_{y} P(x, y), \P(Y = y)&= \sum_{x} P(x, y)\end{aligned}
$$

3. Marginal → Joint (불가능)

  • Marginal distribution만으로는 Joint distribution을 복원할 수 없다
  • 변수 간 의존성 정보(correlation) 가 이미 사라졌기 때문이다

4. Independent Random Variables

두 확률 변수 $X$와 Y가 독립(independent) 이라면,

$$
\begin{aligned}P(X = x, Y = y)&= P(X = x), P(Y = y)\end{aligned}
$$

  • Joint distribution이 각 marginal distribution의 으로 표현된다
  • 이 경우 두 변수는 서로 영향을 주지 않는다

06_요약

  • 한 번의 시행에서 여러 확률 변수를 동시에 정의하면
  • Multiple Random Variables
  • 이들의 결합된 확률 구조
  • Joint probability distribution
  • Joint distribution에서
    • 하나의 변수만 보면 → Marginal distribution
  • 변수 간 관계(의존성, correlation)를 분석하는 핵심 개념이다

https://www.youtube.com/watch?v=sn4lNt1PDx0&t=1539s

 

반응형