https://dev-ryuon.tistory.com/45?category=943371
이 포스트는 선형 시스템에 대해 숙지하고 보시는 것을 추천합니다.
이론
선형 조합을 이해하기 이전에 행렬을 구조적으로 보는 시점이 중요하다.
위 그림과 같이 행렬을 열 벡터의 집합으로 해석할 수 있다. 그 뜻은 행 단위로도 묶어서 해석할 수 있다. 하지만 보통은 열 벡터로 해석한다.
이제, 선형 시스템 Ax를 구조적으로 볼 수 있는 시야를 가지게 되었다. Ax는 행렬 A가 가지고 있는 열벡터의 선형 조합이다.
위와 같은 선형 시스템이 있다고 가정해보자. 행렬 A를 열 벡터 단위로 보면 다음과 같이 볼 수 있다.
그 다음 행렬의 곱셈을 수행하면 다음과 같이 표현할 수 있다.
위 형태가 선형 조합이다. 왜 선형 조합이라 부르나? 행렬 A의 열 벡터들이 b를 만족하기 위해 가능한 x의 조합들을 의미하기 때문이다. 즉, 각 열 벡터마다 부여되는 가중치(x의 요소들)의 조합이라 볼 수 있다. 위 개념은 딥러닝에서 특징(feature)의 가중치와도 일맥상통하는 내용이기 때문에 이해해두면 도움이 된다. 미리 언지를 주자면, 각 열 벡터는 특징에 해당되고, x의 요소들은 각각의 특징들이 어느정도 영향을 끼치는지 나타내는 가중치가 된다.
'[Mathematics] - Linear Algebra' 카테고리의 다른 글
# 6. 좌표계 변환 (Change of Basis) (0) | 2021.09.23 |
---|---|
# 5. 열 공간 (Column Space) (0) | 2021.06.20 |
# 3. 행렬 연산 (Matrix Operations) (0) | 2021.06.18 |
# 2. LU 분해 (LU Decomposition) (0) | 2021.06.13 |
# 1. 가우스 소거법 (Gauss Elimination) (0) | 2021.06.10 |
댓글