| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
- corrosion
- 비동기적
- gjk
- CMAKE
- 데이터분석
- rospy.spin
- vscode
- roslaunch
- UV
- Cargo
- broad-phase
- convex
- gjk-epa
- Topic
- plotjuggler
- 워크스페이스
- remapping
- CONSTRAINTS
- mock
- narrow-phase
- cbindgen
- C++
- separating axis theorem(sat)
- gradient accumulation
- Turtlesim
- subsribe
- generic pointer
- ROS
- unittest
- rust
- Today
- Total
똑바른 날개
[확률과 통계 16] Discrete Multiple RVs - Introduction 본문
01) Multiple Random Variables
01_multiple random variable
Multiple Random Variables란
→ 한 번의 시행에서 두 개 이상의 서로 다른 확률 변수를 동시에 정의하는 경우를 말한다.
- 하나의 시행에서 서로 다른 현상을 각각의 확률 변수로 표현한다
- 주된 목적은 확률 변수들 사이의 관계(correlation, dependence) 를 분석하는 것이다
- 즉, 각 random variable이 서로에게 영향을 미치는지를 알고 싶을 때 사용된다
두 개 이상의 확률 변수로 정의된 확률 분포를 Joint distribution이라 부른다.
- Discrete random variables
- → Joint probability distribution
- Continuous random variables
- → Joint probability density function (Joint PDF)
02_Example Discrete case – 직관적 예시
사람의 키와 몸무게를 동시에 관측한다고 가정하자.
- $ X $ : 키
- $ Y $: 몸무게
이 경우 데이터는 항상 다음과 같은 쌍(pair) 으로 관측된다.
$$
\begin{aligned}
{(X, Y) \mid (x_1, y_1), (x_2, y_2), (x_3, y_3), \ldots }
\end{aligned}
$$
왜 Single Random Variable로는 부족한가?
키와 몸무게를 각각 독립적인 single RV로만 보면,
$$
\begin{aligned}{X \mid x_1, x_2, x_3, \ldots }, \quad {Y \mid y_1, y_2, y_3, \ldots }\end{aligned}
$$
- 키와 몸무게 사이의 Correlation를 알 수 없다
- 키가 클수록 몸무게도 증가하는가? 와 같은 질문에 답할 수 없다
→ 이런 변수 간 관계를 분석하기 위해 Multiple Random Variables가 필요하다.
03_Joint Probability Distribution
Joint Probability Distribution의 표현
$n$ 개의 확률 변수가 있을 때, 이들이 특정 값을 동시에 가질 확률을 다음과 같이 표현한다.
$$
\begin{aligned}P(X_1 = x_1,; X_2 = x_2,; \ldots,; X_n = x_n)\end{aligned}
$$
이 분포는 확률 변수들 사이의 의존성 구조를 모두 포함한다.
Marginal Probability Distribution
Joint distribution에서 특정 확률 변수 하나만을 고려한 분포를 Marginal distribution이라 한다.
$$
\begin{aligned}P(X_1 = x_1),; P(X_2 = x_2),; \ldots,; P(X_n = x_n)\end{aligned}
$$
- 다른 변수들은 합(sum) 을 통해 제거된다
- Joint distribution에서 부분적으로 추출된 분포이다
04_Example Discrete Two Random Variables
동전을 3번 던지는 실험을 고려하자.
- $X$: 한 번 던졌을 때의 결과
- 앞 = 1, 뒤 = 0
- $Y$: 3번 던졌을 때 나온 앞의 총 개수
- $Y \in {0,1,2,3}$
Marginal Distributions
| $X$ | $ P(X = x) $ | $ Y $ | $ P(Y=y) $ |
| 0 | 1/2 | 0 | 1/8 |
| 1 | 1/2 | 1 | 3/8 |
| 2 | 3/8 | ||
| 3 | 1/8 |
Joint probability of (X, Y)
| $P(X, Y)$ | $X = 0$ | $X = 1$ |
| $Y = 0$ | $P(X=0, Y=0) = 1/8$ | $P(X=1, Y=0) = 0$ |
| $Y = 1$ | $P(X=0, Y=1) = 2/8$ | $P(X=1, Y=1) = 1/8$ |
| $Y = 2$ | $P(X=0, Y=2) = 1/8$ | $P(X=1, Y=2) = 2/8$ |
| $Y = 3$ | $P(X=0, Y=3) = 0$ | $P(X=1, Y=3) = 1/8$ |
이 표는
- 각 결과 $(X,Y)$가 발생할 확률을 나타내며
- 두 확률 변수의 Joint 구조를 직접적으로 보여준다
05_Joint Distribution의 특징
1. 전체 확률의 합은 1
$$
\begin{aligned}\sum_{x} \sum_{y} P(x, y) = 1,\quad \text{for two random variables } X \text{ and } Y\end{aligned}
$$
이는 모든 가능한 결과의 확률을 더하면 반드시 1이 되어야 한다는 의미이다.
2. Joint → Marginal (가능)
$$
\begin{aligned}P(X = x)&= \sum_{y} P(x, y), \P(Y = y)&= \sum_{x} P(x, y)\end{aligned}
$$

3. Marginal → Joint (불가능)
- Marginal distribution만으로는 Joint distribution을 복원할 수 없다
- 변수 간 의존성 정보(correlation) 가 이미 사라졌기 때문이다
4. Independent Random Variables
두 확률 변수 $X$와 Y가 독립(independent) 이라면,
$$
\begin{aligned}P(X = x, Y = y)&= P(X = x), P(Y = y)\end{aligned}
$$
- Joint distribution이 각 marginal distribution의 곱으로 표현된다
- 이 경우 두 변수는 서로 영향을 주지 않는다
06_요약
- 한 번의 시행에서 여러 확률 변수를 동시에 정의하면
- → Multiple Random Variables
- 이들의 결합된 확률 구조
- → Joint probability distribution
- Joint distribution에서
- 하나의 변수만 보면 → Marginal distribution
- 변수 간 관계(의존성, correlation)를 분석하는 핵심 개념이다
https://www.youtube.com/watch?v=sn4lNt1PDx0&t=1539s
'공부 > 확률과 통계' 카테고리의 다른 글
| [확률과 통계 20] Covariance of two RVs (0) | 2026.01.15 |
|---|---|
| [확률과 통계 21] Correlation Coefficient of two RVs (0) | 2026.01.15 |
| [확률과 통계 19] Continuous Multiple RVs - Conditional Distributions (1) | 2026.01.09 |
| [확률과 통계 17] Continuous Multiple RVs - Introduction (0) | 2026.01.09 |
| [확률과 통계 18] Discrete Multiple RVs - Conditional Distributions (0) | 2026.01.09 |