최근 포스트

torch.matmul() 에 대해서 이해해보자.

최대 1 분 소요

motivation: torch.matmul() 에 대해서 이해해보자. 입력 tensor가 3차원인 경우 –> torch.matmul(A,B) 는, A가 (b, n, m) 차원을 가지고, B가 (b, m, p)의 차원을 가지면, 결과는 (b,n,p) ...

normalization의 모든 종류들을 알아보자.

1 분 소요

motivation: normalization의 모든 종류들을 알아보자. batch normalization은 gradient vanishing 문제를 해결하기 위해서, 평균과 분산을 NN이 정하도록 설정하는 것이다. 그래서 ReLU는 gradient vanishin...