1. | ![]() |
강의자료 | 강의자료 | ![]() ![]() |
1. | ![]() |
인공지능, 머신러닝의 개념 | 인공지능, 머신러닝 프로그래밍에 필요한 Python library에 대해 알아본다. / 인공지능과 머신러닝의 개념을 이해한다. | ![]() |
![]() |
회귀분석의 개념 | 회귀분석의 개념과 프로세스를 이해한다. | ![]() |
|
![]() |
pandas 라이브러리의 활용 | 머신러닝 프로그래밍에서 활용하는 pandas library에 대해 알아본다. | ![]() |
|
2. | ![]() |
NumPy 라이브러리 활용하기 | 머신러닝 프로그래밍에서 활용하는 NumPy library에 대해 알아본다. | ![]() |
3. | ![]() |
scikit-learn 라이브러리 활용하기 | 머신러닝 프로그래밍에서 활용하는 scikit-learn library에 대해 알아본다. | ![]() |
![]() |
matplotlib 라이브러리 활용하기 | 머신러닝 프로그래밍에서 활용하는 matplotlib library에 대해 알아본다. | ![]() |
|
4. | ![]() |
선형회귀모델의 개념과 cost function(1) | Linear regression의 특성 및 원리를 이해한다. | ![]() |
![]() |
선형회귀모델의 개념과 cost function(2) | Linear regression의 cost function과 cost function을 최소화할 수 있는 최적의 가중치 및 편향을 찾는 학습 (learning) 프로세스를 이해한다. | ![]() |
|
![]() |
gradient descent | 최적의 머신러닝 모델을 찾을 수 있는 경사하강법 (Gradient descent)의 개념과 원리, 프로세스를 이해한다. | ![]() |
|
![]() |
simple linear regression 구현 | sklearn을 이용하여, 주어진 1차원 특징 X와 타겟 y의 linear regression model을 생성할 수 있다. / 생성된 linear regression model에 새로운 데이터 X를 적용하여 예측값을 확인할 수 있다. | ![]() |
|
5. | ![]() |
multiple linear regression 구현하기 | sklearn을 이용하여, 주어진 다차원 특징 데이터와 타겟 값에 대한 linear regression model을 생성할 수 있다. | ![]() |
6. | ![]() |
overfitting과 underfitting, polynomial regression | underfitting과 overfitting의 개념을 이해한다. / Polynomial regression의 개념을 이해한다. / Polynomial regression을 통해 model을 생성할 때, degree의 영향을 이해한다. | ![]() |
![]() |
polynomial regression 구현하기 | sklearn을 이용하여, polynomial regression을 구현할 수 있다. / Polynomial regression의 degree가 regression model에 미치는 영향을 이해할 수 있다. | ![]() |
|
7. | ![]() |
회귀 모델의 평가 | Regression model 성능을 평가할 수 있는 척도 mean absolute error, mean squared error, root mean squared error, R2의 개념과 특성을 이해한다. | ![]() |
![]() |
regrularization 개념, ridge regression, lasso regression | Bias와 variance의 개념을 파악하고, underfitting과 overfitting과의 관계를 이해한다. /Overfitting을 개선할 수 있는 regularization의 개념과 원리를 이해한다. | ![]() |
|
![]() |
ridge regression, lasso regression 구현 | sklearn을 이용하여, ridge regression과 lasso regression을 구현할 수 있다. / ridge regression과 lasso regression의 α 파라미터가 regression model 성능에 미치는 영향을 파악할 수 있다. | ![]() |
|
8. | ![]() |
SVR개념과 라그랑주 승수법(1) | Support vector regression의 특성과 원리, objective function(목적함수)와 constraints(제약)을 이해할 수 있다. | ![]() |
![]() |
SVR개념과 라그랑주 승수법(2) | 제약식이 포함된 최적화 문제를 해결하는 lagrange multiplier method에 대해 이해한다. | ![]() |
|
![]() |
SVR의 optimal solution | Lagrange multiplier method를 이용하여 Support vector regression의 primal problem에 대한 dual problem을 찾을 수 있다. | ![]() |
|
9. | ![]() |
support vector의 특성 | Support vector regression에 의해 생성된 model을 구성하는 데이터의 기하학적 의미를 파악한다. | ![]() |
![]() |
kernel trick의 개념 | Kernel trick의 원리와 효과를 이해하고, support vector regression에 적용할 수 있다. | ![]() |
|
10. | ![]() |
linear SVR, kernel SVR 구현, 시각화, 성능 비교하기(1) | sklearn을 이용하여, support vector regression model을 생성할 수 있다. | ![]() |
![]() |
linear SVR, kernel SVR 구현, 시각화, 성능 비교하기(2) | sklearn을 이용하여, 생성된 support vector regression model을 평가한다. | ![]() |
|
![]() |
linear SVR, kernel SVR 구현, 시각화, 성능 비교하기(3) | support vector regression의 attribute를 알아본다. | ![]() |
|
11. | ![]() |
decision tree 개념과 학습 프로세스 | Decision tree를 통해 regression model을 생성하는 원리와 구조, 학습 프로세스에 대해 이해한다. | ![]() |
![]() |
decision tree 구현하기(1) | sklearn을 이용하여, decision tree regression model을 생성한다. | ![]() |
|
![]() |
decision tree 구현하기(2) | decision tree regression model 파라미터 변경의 영향을 파악한다. | ![]() |
|
12. | ![]() |
random forest 개념과 학습 프로세스 | Random forest regression model의 원리와 구조, 학습 프로세스를 이해한다. / Decision tree와 차별화된 Random forest의 특성을 이해한다. | ![]() |
![]() |
random forest 구현하기 | sklearn을 이용하여 random forest regression model을 구현하고, 성능을 평가할 수 있다. / 구현한 random forest를 구성하고 있는 decision tree를 확인할 수 있다. | ![]() |
|
13. | ![]() |
gradient boosting 개념과 학습 프로세스 | Gradient boosting의 원리와 특성을 이해한다. / Gradient boosting의 학습 프로세스를 이해한다. | ![]() |
![]() |
gradient boosting 구현하기 | sklearn을 이용하여, gradient boosting regression model을 설계할 수 있다. / 설계한 gradient boosting regressor의 성능을 평가하고, regression model을 구성하는 decision tree를 확인할 수 있다. | ![]() |