본문 바로가기

LG Aimers(AI 전문가 과정)/Module 2. 지도학습(분류,회귀)7

Part 6. Ensemble(앙상블 기법) Module 2. 지도학습(분류/회귀)은 이화여자대학교 강제원 교수님이 강의를 하셨고 Module 2에 관한 모든 내용은 LG Aimers 및 이화여자대학교 강제원 교수님으로부터 나왔다. Ensemble(앙상블) 앙상블 방식 - 머신러닝에서 알고리즘의 종류에 상관 없이 서로 다르거나, 같은 메커니즘으로 동작하는 다양한 머신러닝 모델을 묶어 함께 사용하는 방식 -> 여러 다른 model을 함께 모아서 예측 model의 집합으로 사용 Bagging - 모델을 병렬적으로 학습 - 분류 : 투표 분류 기법을 이용하여 예측 - 회귀 : 각 특성변수 별로 예측된 값들을 평균하여 예측값 결정 - 잡음이 많은 데이터와 높은 분산을 갖는 모형에 활용성이 높음 - with replacement 방식 - 학습데이터에 포함되.. 2022. 7. 24.
Part 5. Advanced Classification(SVM,NN) Module 2. 지도학습(분류/회귀)은 이화여자대학교 강제원 교수님이 강의를 하셨고 Module 2에 관한 모든 내용은 LG Aimers 및 이화여자대학교 강제원 교수님으로부터 나왔다. 뒤에 나오는 사진들에서 w와 β는 같은 의미이다. SVM(Supporter Vector Machine) SVM은 선형 분류 중 어떤 linear separators가 최적인지 구하는 것에서부터 시작되었다. 그렇게 SVM에서는 적절한 h(x) = 0의 선을 그어Margin을 최대한으로 크게하는 것이 중요한 부분이다. SVM을 최적화 하는 과정에서 1. Hard margin SVM(경마진) 2. Soft margin SVM(유연마진) 으로 나눌 수 있다. 먼저 Hard margin SVM Margin 안쪽으로 아무것도 못들.. 2022. 7. 24.
Part 4. Linear Classification(선형 분류) Module 2. 지도학습(분류/회귀)은 이화여자대학교 강제원 교수님이 강의를 하셨고 Module 2에 관한 모든 내용은 LG Aimers 및 이화여자대학교 강제원 교수님으로부터 나왔다. 이번 포스팅에선 Linear Classification에 대해 설명하겠다. Linear Classification Linear Classification은 선형 분류를 얘기한다. 그래서 모델의 출력이 이산적이다. Linear Classification의 장점으론 매우 단순하고 해석하기 쉽다. 그래서 h(x)가 0보다 크면 +로 분류를 h(x)가 0보다 작으면 -로 분류를 하는 식이다. Linear Classification은 판별하는 동안 Score 값을 통해서 판별을 한다. Score이외에 Margin이 존재한다. S.. 2022. 7. 24.
Part 3. Gradient Descent(경사하강법) Module 2. 지도학습(분류/회귀)은 이화여자대학교 강제원 교수님이 강의를 하셨고 Module 2에 관한 모든 내용은 LG Aimers 및 이화여자대학교 강제원 교수님으로부터 나왔다. 저번 포스팅에서 Gradient Descent(경사하강법)에 대해 간단하게 설명을 해보았다. 이번 포스팅에서는 지난 포스팅보다 심화적인 내용을 다뤄보겠다. Gradient Descent Algorithm Key Components - Gradient : 벡터함수의 partial derivative를 가짐, 함수의 변화량이 가장 큰 변화량쪽으로 update - α(step size) : parameter 업데이트의 변화 정도를 조절하는 값으로 학습 이전에 설정하는 hyperparameter (사전에 정의하는 값) 첫번째 .. 2022. 7. 24.