전공 지식 정리/인공지능

#4,5 불확실성 및 확률 / 베이지안 네트워크

daramG 2022. 6. 19. 22:50

불확실성 : Agent의 KB에서 명시적으로 고려되지 않은 모든 것을 의미한다.

 

불확실성의 종류

- 사전지식에 대한 불확실성

- Action에 대한 불확실성

- Perception에 대한 불확실성

 

불확실성을 처리하기 위한 방법

- Default Reasoning

- Worst-case Reasoning

- Probabilistic Reasoning

: 현실 세계는 정상, 비정상으로 나뉘지 않고 모든 상황에는 다양한 확률이 존재한다.

 

Logic이 불확실성을 처리할 수 없는 이유

게으름 : 모든 complete한 규칙을 모두 리스트화 할 수 없다.

이론적 무지 : complete한 이론은 없다.

실제적인 무지 : 모든 테스트를 수행할 수 없다.

확률은 게으름과 무지에서 오는 불확실성을 요약하며 문제를 해결하는 방법을 제공한다.

 

1차논리와 확률적 방법 비교

1차 논리는 현실세계를 true/false로 바라본다.

반면 확률의 경우는 인지된 수집 데이터를 기반으로 한다.

 

확률 : 어떤 사건이 발생할 가능성이 얼마나 되는지 0과 1 사이의 수치로 나타낸 것이다.

특성1 : 모든 확률을 더하면 1이다.

특성2 : 개별 확률값은 0과 1 사이의 값이다.

 

표본공간과 사건

주사위 던지기를 예로 들면

표본공간 : Ω = {(i) | i = 1, 2, 3, 4, 5, 6)

사건 A(주사위가 2) : A = {(i) | i = 2} = 1/6

 

A와 B의 배반사건 : A ∩ B =

A와 B의 독립사건 : P(A ∩ B) = P(A)P(B)

 

확률의 공리

공리1 : P(Ω) = 1공리2 : 0 <= P(A) <= 1, A Ω공리3 : 서로 배반인 사건 A1, A2, ... An에 대해, Ai 합집합들의 합 = P(Ai)들의 합

 

확률변수 : 표본 공간안의 원소를 특정 실수값으로 보내는 함수

확률분포 : 확률변수의 값에 대해 확률을 표시한 것

 

명제의 구문론적 표현

대문자로 쓰면 확률변수를 Boolean으로 표현, 소문자로 쓰면 값 ( P(Daramg = true), P(daramg) )

이산확률변수 : 확률변수 값은 셀 수 있는 값이여야하고 상호 배타적이다.

연속확률변수 : 확률변수의 값을 셀 수 없는 경우이다.

 

이산확률변수에 대한 확률

- 확률질량함수 : 이산확률변수 X가 임의의 값 x일 확률 P(X = x)를 x에 대한 함수로 표현한다.

 

연속확률변수에 대한 확률

- 확률밀도함수 : 연속자료로 이루어진 표본들의 분포 (면적이 해당 구간에서의 확률)

 

확률의 기본 개념

사전확률 : 결과가 나타나기 이전에 정해져 있는 사건의 확률(원인)

조건부 확률(사후 확률) : P(B|A) 사건 A가 발생했다는 조건 하에 사건 B가 발생할 확률

 

 

ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ

 

 

베이지안 네트워크

: 불확실한 상황에서 확률 이론에 따라 추론 가능한 네트워크 모델을 구축하는 방법

 

베이지안 네트워크를 사용하는 이유

: 표현적 언어이고 직관적 언어이고 추론 알고리즘이기 때문이다.

 

결합확률분포

주변화 : ɪ P(I, D) = P(D)

팩터 곱 : 2개의 인자 Table간의 곱 -> 3개의 인자 가지는 Table

팩터 주변화 : 3개의 인자 가지는 Table -> 특정 2개의 인자 가지는 Table

 

Simple Bayesian Network

- 확률모델은 간단한 인수분해 형태

- 종속 관계

- 조건부 독립 관계 

p(a|b,c)=p(a|c) 
c가 주어졌을 때 a는 b에 대해 조건부 독립이다.

- 주변 독립 : P(A, B, C) = P(A)P(B)P(C)

- 공통의 원인 : P(A, B, C) = P(B | A)P(C | A)P(A)

- 공통의 결과 : P(A, B, C) = P(C | A, B)P(A)P(B)

- 간접적인 causal effect : P(C | B)P(B | A)P(A)

- 간접적인 evidential effect : P(A | B)P(B | C)P(C)