목록전체 글 (307)
코딩하는 해맑은 거북이
본 게시물의 내용은 '인공지능을 위한 선형대수(주재걸 교수님)' 강의를 듣고 작성하였다. 해당 글은 아래의 4가지를 다룬다. 1. 고유벡터와 고유값 (Eigenvectors and eigenvalues) 2. 영공간(Null Space) 3. 직교여공간(Orthogonal Complement) 4. 특성방정식(Characteristic Equation) - 고유벡터와 고유값 - 고유벡터와 고유값(Eigenvectors and eigenvalues) : 정사각행렬 A와 nonzero 벡터인 x가 Ax=λx (λ는 scalar)가 성립할 때, x를 고유벡터라고 하고, λ를 고유값이라고 한다. 선형변환의 관점에서 보면, Ax=λx 는 방향은 그대로이고 크기만 바뀐다. 2x2 행렬 A와 2x1 벡터 x가 있을 ..
본 게시물의 내용은 '인공지능을 위한 선형대수(주재걸 교수님)' 강의를 듣고 작성하였다. 해당 글은 아래의 2가지를 다룬다. 1. 그람-슈미트 직교화(Gram-Schmidt Orthogonalization) 2. QR분해(QR Factorization) - 그람-슈미트 직교화 - 그람-슈미트 직교화(Gram-Schmidt Orthogonalization) : 수직이 아닌 선형독립한 2개의 벡터를 orthogonal basis 벡터로 만드는 것. (지난 게시글에서 언급한 정사영(Orthogonal Projection)을 통해 구한다.) 수직이 아닌 선형독립한 2개의 벡터(v1, v2)를 orthogonal basis 벡터(u1, u2)로 만드는 예시를 진행해보았다. 첫번째 column 벡터인 u1은 v1을..
해당 글은 아래의 5가지를 다룬다. 1. Feature 2. Feature Vector 3. Feature Space 4. Feature Extraction 5. Traditional ML vs Current DL Check. Q. feature vector란 무엇일까요? 더보기 특징(feature) 이란, 샘플(데이터)을 잘 설명하는 측정가능한 속성이다. 특징을 통해 특정 샘플을 수치화하여 나타낼 수 있다. 특징벡터(feature vector) 란 피쳐(feature)들의 집합이다. 굳이 벡터로 표시하는 이유는 수학적으로 다루기 편하기 때문이다. 데이터별로 어떤 특징을 가지고 있는지 찾아내고, 그것을 토대로 데이터를 벡터로 변환하는 작업을 특징추출(feature extraction) 이라고 한다. 특징..
본 게시물의 내용은 '인공지능을 위한 선형대수(주재걸 교수님)' 강의를 듣고 작성하였다. 해당 글은 아래의 3가지를 다룬다. 1. Orthogonality와 Orthonormality 2. 직교기저(Orthogonal Basis)와 정규직교기저(Orthonormal Basis) 3. 정사영(Orthogonal Projection) - Orthogonal Projection Ⅰ - Orthogonal Projection(정사영) : '수직으로 투영된 그림자'를 말한다. 이때 내려진 수선의 발이 행렬과 주어진 입력벡터의 곱으로 나타남으로 선형변환이다. - orthogonal set : 집합 내의 모든 벡터들이 서로 수직인 벡터의 집합이다. - orthonormal set : orthogonal set에서 길..
본 게시물의 내용은 '인공지능을 위한 선형대수(주재걸 교수님)' 강의를 듣고 작성하였다. 해당 글은 아래의 6가지를 다룬다. 1. 내적(Inner Product, Dot Product) 2. 벡터의 길이(Vector Norm) 3. 단위벡터(Unit Vector) 4. 직교벡터(Orthogonal Vectors) 5. Over-Determined System 6. 최소제곱법(Least Squares) 7. 정규방정식(Normal Equation) - Least Squares Problem 소개 - Over-determined Linear Systems : 방정식의 갯수가 변수의 갯수보다 많을 때(m>n)를 의미한다. 이런 경우 보통 해가 존재하지 않는다. cf) m=n 일때는 determined, m= ..
해당 글은 아래의 5가지를 다룬다. 1. PCA (Principle Component Analysis, 주성분 분석) 2. SVD (Singular Value Decomposition, 특이값 분해) 3. LDA (Linear Discriminant Analysis, 선형판별분석) 4. LSA (Latent Semantic Analysis, 잠재의미분석) 5. LDA (Latent Dirichlet Allocation, 잠재 디리클레 할당) Check. Q. PCA는 차원 축소 기법이면서, 데이터 압축 기법이기도 하고, 노이즈 제거 기법이기도 합니다. 왜 그런지 설명해주실 수 있나요? 더보기 PCA(Principle Component Analysis)는 입력 데이터의 공분산 행렬을 기반으로 고유벡터를 생..