
총 4개
-
Kernel PCA & Spectral Clustering2025.01.131. Kernel PCA Kernel PCA는 편향이 큰 실세계의 데이터를 분석하는데 어려움이 있고, outlier data에 매우 민감한 linear PCA의 단점을 보완하기 위해 kernel trick을 수행한다. 하지만 분산이 가장 큰 축으로 데이터들을 정사영 시킬 뿐, clustering algorithm을 적용하지는 않는다. 2. Spectral Clustering Spectral Clustering은 군집화를 더 쉽게 하기 위해서 유사도 행렬 A를 통해 데이터들을 변형된 공간에 넣고, 후에 clustering algori...2025.01.13
-
다중 선형 회귀 (Multiple Linear Regression, MLR)2025.05.091. 다중 선형 회귀 (Multiple Linear Regression, MLR) 다중 선형 회귀(Multiple Linear Regression, MLR)는 하나의 종속 변수를 다수의 독립 변수와의 선형 관계로 설명하는 모델입니다. 단순 선형 회귀가 하나의 독립 변수와 하나의 종속 변수 간의 선형 관계를 모델링하는 것과 달리, MLR은 여러 개의 독립 변수가 종속 변수와의 선형 관계에 영향을 미칠 수 있는 경우를 다룹니다. 예를 들어, 주택 가격을 예측하기 위해 주택의 크기, 방의 개수, 위치, 건물 연식 등 여러 독립 변수들을 ...2025.05.09
-
Data Preparation2025.01.131. Feature Extraction and Portability Feature extraction은 다양한 출처(센서, 이미지, 웹 기록, 침입감지, 문서 등)에서 데이터를 얻는 것을 말한다. Portability는 다른 유형으로 데이터를 변환하는 것을 말한다. 포터빌리티의 예로는 이산화, 이진화, LSA, SAX, DWT, DFT 등이 있다. 이러한 변환 방법들은 데이터의 크기를 줄이거나 다른 형태로 표현하는 데 사용된다. 2. Data Cleaning 데이터 클리닝은 누락되거나 오류가 있는 데이터를 제거하는 것을 말한다. 누...2025.01.13
-
머신러닝에서의 차원축소2025.05.101. 차원 축소 차원 축소는 고차원 데이터를 저차원으로 변환하는 과정으로, 데이터의 복잡성을 줄이고 특징을 추출하거나 시각화하기 위해 사용됩니다. 주요 방법으로는 특징 선택과 특징 추출이 있으며, 차원 축소의 이점은 데이터 시각화, 계산 효율성 향상, 잡음 제거 등입니다. 2. 차원의 개념 차원은 데이터를 표현하기 위해 필요한 축의 수를 의미하며, 각 차원은 데이터의 특정 특성을 나타내는 변수 또는 속성이 됩니다. 차원이 높을수록 데이터의 복잡성과 계산 비용이 증가하므로 차원 축소가 필요합니다. 3. 특징(feature)의 개념 특...2025.05.10