Day 3 더나은 신경망 학습을 위한 방법들
by darami질문 정리
0. 릿지 이해가...xx
Q: 가중치 감소 이해
1. Xavier 초기화는 가중치를 표준편차가 고정값인 정규 분포로 초기화 했을 때 등장한 방법이라는데 어떤 문제가 일어나나요?
2.그리고 이 Xavier는 렐루일때 층이 지날수록 왜 활성화 값이 고르지 못하나요
그리고 이건 왜 He초기화에서 사용하면 해결되나요
--------------------------------------------------------------------------------
hyperparameter / GridSearch, RandomSearch (ML)
딥러닝에서 -> 시간적 / 현실적 한계
가중치 초기화
가중치가 0이어도 학습이 일어나긴 하는데, (편향이 있으니까) 그런데 균일성이 문제
Early Stopping
왜 255로 나누냐, 255로 나눠도 되서 간단하게, 나중에 데이터가 커지면 다른걸로
'🚀💖🎶 > AI, 개발 흔적' 카테고리의 다른 글
[나만의 언어] RNN/LSTM + 급식실을 곁들인.. (0) | 2021.12.28 |
---|---|
[나만의 언어] 자연어 처리 /불용어/어간추출/임베딩 등 (1)(2) (0) | 2021.12.26 |
Day 2 Optimizer 옵티마이저 +코드 팁 (0) | 2021.12.20 |
Day1 섹션 4 딥러닝 (0) | 2021.12.17 |
프로젝트 전 리뷰 (0) | 2021.12.07 |
블로그의 정보
다람
darami