1. | ![]() |
강의자료 | 강의자료 | ![]() ![]() |
1. | ![]() |
인공지능, 머신러닝의 개념 | 인공지능, 머신러닝 프로그래밍에 필요한 Python library에 대해 알아본다. / 인공지능과 머신러닝의 개념을 이해한다. | ![]() |
![]() |
분류의 개념 | 분류의 개념과 프로세스를 이해한다. | ![]() |
|
![]() |
pandas 라이브러리의 활용 | 머신러닝 프로그래밍에서 활용하는 pandas library에 대해 알아본다. | ![]() |
|
2. | ![]() |
NumPy 라이브러리 활용하기 | 머신러닝 프로그래밍에서 활용하는 NumPy library에 대해 알아본다. | ![]() |
3. | ![]() |
scikit-learn 라이브러리 활용하기 | 머신러닝 프로그래밍에서 활용하는 scikit-learn library에 대해 알아본다. | ![]() |
![]() |
matplotlib 라이브러리 활용하기 | 머신러닝 프로그래밍에서 활용하는 matplotlib library에 대해 알아본다. | ![]() |
|
4. | ![]() |
KNN의 개념과 over/underfitting | K-nearest neighbors를 통해 데이터를 분리하는 과정을 이해한다. | ![]() |
![]() |
KNN 구현하기 | K-nearest neighbors를 통해 데이터를 분리하는 과정을 이해하고 구현해본다. | ![]() |
|
5. | ![]() |
logistic regression의 개념, 원리 | Logistic regression의 개념과 logistic regression을 이용한 binary classification model 설계의 원리를 학습한다. | ![]() |
![]() |
logistic regression 구현하기 | sklearn을 이용하여, 2개의 class를 분류하는 logistic regression model을 생성할 수 있다. / 생성된 logistic regression model에 새로운 데이터 X를 적용하여 해당 데이터가 속하는 class를 예측할 수 있다. | ![]() |
|
6. | ![]() |
confusion matrix와 ROC curve(1) | 분류 모델의 성능을 평가하는 confusion matrix, precision, recall의 개념을 이해한다. / Confusion matrix를 통해 분류 모델의 성능을 평가할 수 있다. | ![]() |
![]() |
confusion matrix와 ROC curve(2) | False positive rate과 True positive rate의 의미를 이해하고 ROC curve를 그릴 수 있다. / ROC curve를 비교하여 분류 모델의 성능을 비교 및 평가할 수 있다. | ![]() |
|
![]() |
confusion matrix와 ROC curve를 이용하여 성능평가 구현하기 | sklearn을 이용하여, classification 결과에 대한 confusion matrix를 찾고 ROC curve를 그릴 수 있다. | ![]() |
|
7. | ![]() |
SVM개념과 라그랑주 승수법 | Support vector machine의 특성과 원리, objective function(목적함수)와 constraints(제약)을 이해할 수 있다. | ![]() |
![]() |
SVM의 lagrange multiplier method | 제약식이 포함된 최적화 문제를 해결하는 lagrange multiplier method에 대해 이해한다. | ![]() |
|
![]() |
SVM의 optimal solution | Lagrange multiplier method를 이용하여 Support vector machine의 optimal solution을 찾을 수 있다. | ![]() |
|
8. | ![]() |
kernel trick의 개념 | Kernel trick의 원리와 효과를 이해하고, support vector machine에 적용할 수 있다. | ![]() |
![]() |
분류 결과 시각화하기 | meshgrid와 contourf를 이용하여 분류 결과를 시각화할 수 있다. | ![]() |
|
9. | ![]() |
linear SVM, kernel SVM 구현, 시각화, 성능 비교하기(1) | sklearn을 이용하여, 다양한 kernel trick을 적용한 support vector machine을 생성하고, 분류 성능을 비교할 수 있다. | ![]() |
![]() |
linear SVM, kernel SVM 구현, 시각화, 성능 비교하기(2) | Support vector machine에 의한 분류 결과를 시각화할 수 있다. / SVM model의 attribute를 확인한다. | ![]() |
|
10. | ![]() |
decision tree 개념과 학습 프로세스 | Decision tree를 통해 classification model을 생성하는 원리와 구조, 학습 프로세스에 대해 이해한다. | ![]() |
![]() |
decision tree 구현하기 | sklearn을 이용하여, decision tree classification model을 생성하고, 파라미터 변경의 영향을 파악한다. | ![]() |
|
11. | ![]() |
random forest 개념과 학습 프로세스 | Random forest classification model의 원리와 구조, 학습 프로세스를 이해한다. / Decision tree와 차별화된 Random forest의 특성을 이해한다. | ![]() |
![]() |
random forest 구현하기 | sklearn을 이용하여 random forest classification model을 구현하고, 성능을 평가할 수 있다. / 구현한 random forest를 구성하고 있는 decision tree를 확인할 수 있다. | ![]() |
|
12. | ![]() |
AdaBoost 개념과 학습 프로세스 | AdaBoost classification model의 원리와 구조, 학습 프로세스를 이해한다. / Random forest와 차별화된 AdaBoost의 특성을 이해한다. | ![]() |
![]() |
AdaBoost 구현하기 | sklearn을 이용하여, AdaBoost classifier를 생성하고, 생성된 모델을 검토한다. | ![]() |
|
13. | ![]() |
gradient boosting 개념과 학습 프로세스(1) | Gradient boosting의 원리 및 특성, AdaBoost와의 차이점을 이해한다. / Gradient boosting에서 이용하는 log(odds), loss function, loss function의 미분에 대해 학습한다. | ![]() |
![]() |
gradient boosting 개념과 학습 프로세스(2) | Gradient boosting classifier의 학습 과정을 이해한다. | ![]() |
|
![]() |
gradient boosting 구현하기 | sklearn을 이용하여, gradient boosting model을 생성하고, 생성된 모델을 검토한다. | ![]() |