Machine Learning CheatSheets(요약) for Stanford’s CS229
스탠포드 대학교의 CS 229는 머신러닝 분야에서 손꼽히는 강의로, 학문적으로나 산업적으로 매우 중요한 주제를 다룹니다. 이 강의는 인공지능과 머신러닝의 기초부터 고급 개념까지 폭넓게 설명하고 있습니다. 이 사이트는 그 강의 내용 중에서도 중요한 개념과 알고리즘들을 간결하고 명확하게 요약한 머신러닝 Cheatsheets를 제공합니다.
https://stanford.edu/~shervine/teaching/cs-229/
지도 학습 (Supervised Learning)
- 손실 함수 (Loss function), 경사 하강법 (Gradient descent), 가능도 (Likelihood)
- 선형 모델 (Linear models), 서포트 벡터 머신 (Support Vector Machines), 생성적 학습 (Generative learning)
- 트리 및 앙상블 방법 (Tree and ensemble methods), k-최근접 이웃 (k-NN), 학습 이론 (Learning theory)
비지도 학습 (Unsupervised Learning)
- 기댓값 최대화 (Expectation-Maximization), k-평균 (k-means), 계층적 군집화 (Hierarchical clustering)
- 군집화 평가 지표 (Clustering assessment metrics)
- 주성분 분석 (Principal component analysis), 독립 성분 분석 (Independent component analysis)
딥 러닝 (Deep Learning)
- 아키텍처 (Architecture), 활성화 함수 (Activation function), 역전파 (Backpropagation), 드롭아웃 (Dropout)
- 합성곱층 (Convolutional layer), 배치 정규화 (Batch normalization), 게이트 종류 (Types of gates)
- 마르코프 결정 과정 (Markov decision processes), 벨만 방정식 (Bellman equation), Q-학습 (Q-learning)
팁과 트릭 (Tips and tricks)
- 혼동 행렬 (Confusion matrix), 정확도 (Accuracy), 정밀도 (Precision), 재현율 (Recall), F1 점수 (F1 score), ROC
- R 제곱 (R squared), 말로우의 CP (Mallow’s CP), AIC, BIC
- 교차 검증 (Cross-validation), 정규화 (Regularization), 편향/분산 트레이드오프 (Bias/variance tradeoff), 오류 분석 (Error analysis)
복습 (Refresher)
확률 및 통계 (Probabilities and Statistics)
- 확률의 공리 (Axioms of probability), 순열 (Permutation), 베이즈의 정리 (Bayes’ rule), 독립성 (Independence), 조건부 확률 (Conditional probability)
- 확률 변수 (Random variable), 기댓값 (Expectation), 분산 (Variance)
- 중심극한정리 (Central Limit Theorem), 모수 추정 (Parameter estimation)
선형 대수 및 미적분 (Linear Algebra and Calculus)
- 주요 행렬 (Main matrices), 행렬 곱셈 (Multiplication), 전치 (Transpose), 역행렬 (Inverse), 자취 (Trace), 행렬식 (Determinant)
- 고유값 (Eigenvalue), 고유벡터 (Eigenvector), 벡터의 노름 (Norm), 기울기 (Gradient), 헤시안 (Hessian)
- 양의 준정부호 행렬 (Positive semi-definite matrix), 스펙트럼 정리 (Spectral theorem), 특이값 분해 (Singular-value decomposition)