본문으로 바로가기

선형회귀 (Linear regression)

category Math/Linear Algebra 2021. 1. 7. 16:19

선형대수학적 관점에서 회귀분석

- 다음의 행렬을 푸는 것과 같음

$$A\vec{x} = \vec{b}$$

- 위의 행렬과 벡터를 열벡터로 표현한다면 다음과 같음

$$\Rightarrow \begin{bmatrix} | & | \\ \vec{a}_1 & \vec{a}_2 \\ | & | \end{bmatrix}\begin{bmatrix}x_1 \\ x_2\end{bmatrix} = \begin{bmatrix}\text{ } | \text{ } \\ \text{ } \vec{b} \text{ }\\\text{ } | \text{ }\end{bmatrix}$$

행렬 A의 열벡터 a1과 a2를 조합해서 벡터 b를 얻으려면 a1과 a2의 span안에 벡터b가 포함되어야 함

 

최적화 관점에서 회귀분석

- 데이터를 가장 잘 설명할 수 있는 함수를 찾는 것 (= 모델과 데이터 간의 차이가 가장 적은 경우)

- 평균 오차(error)값이 가장 적은 모델을 찾아야 함

- 모델로부터 계산된 값을 y^hat, 원래 데이터의 값을 y라고 한다면 error는 다음과 같음

$$e_i = \hat{y_i} - y_i$$

- +, - 값에 대응하기 위해 이를 제곱하고 미분을 하기 때문에 모든 데이터의 평균 오차값은 다음과 같음

비용 함수

$$E=\frac{1}{2N}\sum_{i=1}^{N}\left(ax_i+b-y_i\right)^2$$

 

경사하강법 (Gradient descent)

- 미적분학에서 자세히 서술 예정

- 비용 함수의 최소값을 찾을때, 경사하강법을 가장 많이 사용

- 정의역이 가중치와 편향 값이고 높이가 비용함수의 값인 함수 공간에서 점차 수정하며 error 값이 최소인 위치까지 이동

- 접선의 기울기 = 0

- alpha는 learning rate or step size

$$\begin{bmatrix}a\\b\end{bmatrix}:=\begin{bmatrix}a\\b\end{bmatrix}-\alpha\nabla f(a, b)$$


- 본 글은 공돌이의 수학정리노트 angeloyeo.github.io/와 다크 프로그래머 darkpgmr.tistory.com/을 참고하여 작성되었습니다.

- 저에게 필요한 부분만 정리하였으니 더욱 자세한 설명은 위의 사이트를 참조하세요.

'Math > Linear Algebra' 카테고리의 다른 글

Rank  (0) 2021.01.24
행렬식, 역행렬  (0) 2021.01.24
벡터의 내적, 외적, 정사영  (0) 2021.01.24
벡터  (0) 2021.01.24
고유값 & 고유벡터  (0) 2020.12.29