본문 바로가기

고유벡터2

고유값(EigenValue)과 고유벡터(EigenVector) -목차- 1. 고유값(EigenValue)과 고유벡터(EigenVector)의 정의 2. 예시를 통한 고유값과 고유벡터 계산하기 1. 고유값(EigenValue)와 고유 벡터(EigenVector)의 정의 0이 아닌 벡터\(\overrightarrow{x}\)를 임의의 \(n\times n\) 행렬 \(A\)로 선형 변환 하였을때 벡터 \(\overrightarrow{x}\)에 스칼라 값 \(\lambda \)를 곱한 값과 같다면 \(\lambda \)는 행렬 \(A\)의 고유값이라 할 수 있다. \[A\overrightarrow{x} = \lambda \overrightarrow{x}\] 이때 벡터 \(\overrightarrow{x}\)는 고유값 \(\lambda \)에 대응하는 고유 벡터이다. 이때.. 2022. 2. 28.
[ML] 주성분 분석(PCA) 1. PCA(Principal Component Analysis) 개요 PCA는 가장 대표적인 차원 축소 기법이다. PCA는 여러 변수 간에 존재하는 상관관계를 이용해 이를 대표하는 주성분(Principal Component)을 추출해 차원을 축소 하는 기법이다. PCA로 차원을 축소할 떄는 기존 데이터의 정보 유실이 최소화 되도록 차원을 축소한다. 이를 위해서 PCA는 가장 높은 분산을 가지는 데이터의 축을 찾아 이 축으로 차원을 축소하는데 이것이 PCA의 주성분 분석이 된다. 즉 분산이 데이터의 특성을 가장 잘 나타내는 것으로 간주하는 것이다. 100명의 학생들이 국어 시험과 영어 시험을 봤다고 생각해보자. 영어 시험이 조금 더 어려웠고 그 결과 중 일부는 대략적으로 다음과 같았다고 하자. 국어 점수.. 2022. 2. 27.