TIL
by luis lee
딥러닝 강의
김성 교수님의 딥러닝 10강을 들었다.
새로 onenote 에 새로운 섹션(딥러닝강의용)을 만들어서 수업들은 것을 정리한 노트를 관리를 시작했다.
앞으로도 강의나 논문을 읽게 되었을때 정리용 노트를 onenote로 통합하여 관리하도록 하겠다.
오늘 배운 내용은
- NN을 이용해 XOR 구현한 것에 대한 복습
- Deep & Wide NN을 구현하는 것에 대한 복습
- Vanishing gradient 에 대한 내용
- 왜 vanishing gradient가 발생하는지
- ReLU를 이용한 vanishing gradient 해결 방법
- 기타 다른 activation function
- wieght 초기값의 중요성
- RBM (restricted boltzman machine)
- Xavier/He initialization
- Drop out
- DeepNN에서 오버피팅이 발생했을때 해결하는 방법
- 더 많은 training data
- feature 갯수 줄이기
- Regularization (wieght 값 줄이기)
- Drop Out 방법
- Drop out 은 러닝하는 도중에 일부러 몇몇 wight를 랜덤하게 끊어버리는것
- Drop out 을 이용해서 overfitting 문제를 해결하기도 한다
- 구현은 굉장히 간단하다.
- DeepNN에서 오버피팅이 발생했을때 해결하는 방법
- Ensemble(앙상블)
- 학습시킬 수 있는 장비의 여건이 된다면 앙상블을 이용하는 것도 좋다.
- 독립적으로 NN을 구성하고 각각을 따로 training시키고 나중에 하나로 합치는 것을 앙상블이라고 한다.
- 다양한 형태의 네트워크를 쌓자!(LEGO 블럭 처럼)
- RNN,CNN, Fast forward 등 굉장히 다양한 모양의 NN이 존재한다.
- 나만의 네트워크를 창의적으로 생각하고 구축해보자!!!
onenote에 배운 내용을 간단하게 작성하면서 공부를 하니까 TIL을 작성할 때 어떤내용을 했었는지 복습하는데에 굉장히 도움이 된다. 앞으로도 꾸준히 note를 작성하는 습관을 길들여서 TIL을 작성할때 복습을 하는 식으로 진행하는게 좋겠다.
Subscribe via RSS