1. 적대적 학습 (Adversarial Learning)
- 정의: 두 개의 모델이 서로 경쟁하며 학습하는 방식으로, 주로 생성적 적대 신경망(GAN)에서 사용됩니다.
- 설명: GAN은 하나의 생성자(Generator)와 판별자(Discriminator)가 서로 경쟁하며 학습합니다. 생성자는 가짜 데이터를 생성하고, 판별자는 데이터의 진위를 판별하며, 이를 통해 실제에 가까운 데이터를 생성합니다. 주로 이미지 생성, 데이터 증강 등에서 활용됩니다.
- 참고 링크: [적대적 학습과 GAN 설명](https://www.ibm.com/kr-ko/topics/generative-adversarial-networks)
2. 온라인 학습 (Online Learning)
- 정의: 새롭게 들어오는 데이터를 실시간으로 학습하는 방법입니다.
- 설명: 온라인 학습은 데이터가 점차 축적될 때마다 모델이 새로 들어오는 데이터로 실시간으로 학습합니다. 주로 실시간 반응이 중요한 금융, 추천 시스템 등에 적용됩니다.
- 참고 링크: [온라인 학습 소개](https://towardsdatascience.com/online-learning-with-python-fcf9b7c631f2)
3. 엔트로피 (Entropy)
- 정의: 불확실성의 정도를 측정하는 지표로, 정보 이론에서 사용됩니다.
- 설명: 머신러닝에서 엔트로피는 데이터의 불확실성이나 혼란도를 의미하며, 의사결정 트리에서 데이터가 얼마나 혼합되어 있는지 평가하는 데 사용됩니다. 엔트로피가 낮을수록 데이터가 더 균일하게 분류됩니다.
- 참고 링크: [엔트로피의 이해](https://towardsdatascience.com/understanding-entropy-in-machine-learning-9b5d91461526)
4. 오토인코더 (Autoencoder)
- 정의: 입력을 압축하여 특징을 추출하고 이를 복원하는 신경망 구조입니다.
- 설명: 오토인코더는 비지도학습의 일종으로, 데이터의 특징을 압축하여 재구성하는 데 사용됩니다. 차원 축소나 이상 탐지에 주로 활용됩니다.
- 참고 링크: [오토인코더 개념 및 응용](https://www.analyticsvidhya.com/blog/2018/08/autoencoders-beginners-guide/)
5. 의사결정 트리 (Decision Tree)
- 정의: 데이터를 기반으로 의사결정을 위한 트리 구조로 분기하는 알고리즘입니다.
- 설명: 의사결정 트리는 분류 및 회귀에 주로 사용되며, 데이터를 분할하여 최적의 결과를 찾는 데 도움을 줍니다. 조건부 논리를 사용해 노드와 가지로 구성됩니다.
- 참고 링크: [의사결정 트리 개념 이해](https://towardsdatascience.com/decision-trees-in-machine-learning-641b9c4e8052)
6. 백프로퍼게이션 (Backpropagation)
- 정의: 신경망 학습에서 오류를 역으로 전파하여 가중치를 조정하는 알고리즘입니다.
- 설명: 백프로퍼게이션은 신경망의 출력에서 발생한 오류를 각 층으로 역전파하며 가중치를 업데이트하는 과정입니다. 이를 통해 모델의 예측 성능이 점점 향상됩니다.
- 참고 링크: [백프로퍼게이션 원리](https://www.ibm.com/cloud/learn/backpropagation-neural-network)
7. 손실 함수 (Loss Function)
- 정의: 예측 값과 실제 값의 차이를 측정하는 함수입니다.
- 설명: 손실 함수는 모델의 예측이 얼마나 정확한지 평가하기 위해 사용됩니다. 손실이 높을수록 모델의 예측이 부정확하다는 뜻이며, 손실을 최소화하는 방향으로 모델이 학습됩니다.
- 참고 링크: [손실 함수 개념](https://machinelearningmastery.com/loss-and-loss-functions-for-training-deep-learning-neural-networks/)
8. 정규화 (Normalization)
- 정의: 데이터의 크기를 일정한 범위로 조정하는 기법입니다.
- 설명: 정규화는 모델 학습 시 데이터의 범위가 너무 크거나 작지 않도록 조정해 학습을 안정적으로 유지하도록 합니다. 특히 신경망에서 학습 속도를 개선하고 과적합을 방지하는 데 유용합니다.
- 참고 링크: [정규화와 표준화 이해](https://towardsdatascience.com/normalization-vs-standardization-3dfe58d25b0a)
9. 과소적합 (Underfitting)
- 정의: 모델이 데이터를 충분히 학습하지 못하여 낮은 성능을 보이는 상태입니다.
- 설명: 과소적합은 데이터의 패턴을 잘 학습하지 못해 모델 성능이 저하된 상황입니다. 데이터 양을 늘리거나 모델을 복잡하게 만들어 문제를 해결할 수 있습니다.
- 참고 링크: [과소적합 방지 방법](https://machinelearningmastery.com/overfitting-and-underfitting-with-machine-learning-algorithms/)
10. 임베딩 (Embedding)
- 정의: 고차원 데이터를 저차원으로 변환하는 기법입니다.
- 설명: 임베딩은 텍스트나 이미지와 같은 고차원 데이터를 저차원 벡터로 표현해 학습에 활용합니다. 특히 단어 임베딩은 자연어 처리에서 각 단어의 의미를 벡터 형태로 나타내어 모델의 성능을 향상시킵니다.