LSTM1 Batch Normalization VS Layer Normalization Normalization(정규화)이란? Normalization(정규화)의 목적은 모든 데이터들의 스케일을 동일하게 만들어서 각 feature 값들이 동등한 중요도를 가지도록 하는 작업이다. 정규화 되지 않은 Un-normalization 그래프를 확인하면 value 값들의 범위가 0~20까지 분포되어 있는 걸 확인할 수 있다. 이를 정규화시켜 그래프로 나타내면 0~1사이의 값들로 일정한 분포를 가진 데이터로 변경해줄 수 있다. Batch Normalization Batch Normalization은 인공신경망을 학습할 때 각 layer에 들어가는 input data를 평균, 분산을 이용해 정규화하여 효율적인 학습을 할 수 있는 방법이다. Batch Normalization은 배치 차원에서 Layer의 .. 2023. 5. 18. 이전 1 다음 반응형