BLOG 썸네일형 리스트형 신경망 모형의 기본 구조 【1】Deep Learning 시작하기_신경망 모형(Neural Networks) 신경망 모형의 기본 구조 우리는 앞에서 신경망의 구조를 여러 번 언급했었다. 신경망은 다층퍼셉트론의 발전된 형태로 입력층-은닉층-출력층 구조인 다층퍼셉트론에서 은닉층을 두개 이상 쌓은 구조를 가진다. 은닉층의 개수가 많아지면 신경망이 깊어졌다(deep)이라고 하며 이를 심층 신경망(Deep Nerual Network, DNN)이라고 한다. 이번장에서는 딥러닝으로 넘어가기 전 마지막으로 신경망의 구조에 대해서 정리해보는 시간을 가질것이다. 처음 소개하는 내용이 아니므로 질문에 대답해보면서 따라와주기를 바란다! 아래의 그림은 가장 기본적인 신경망의 구조라고 할수 있는 은닉층이 2개인 구조의 신경망 그림이다. 몇가지 퀴즈를 통해.. 더보기 발전된 비선형 함수(Nonlinearity) (Ricky ReLU / Parametric ReLU 등) 【1】Deep Learning 시작하기_Vanishing Gradient Problem 발전된 비선형 함수(Nonlinearity) (Ricky ReLU / Parametric ReLU 등) 혜성처럼 등장한 ReLU는 그 존재감만큼 완벽할 것 같지만 아쉽게도 약간의 문제점이 존재한다. 모든 0 이하의 입력에 대해서는 미분 값이 0이 된다는 것이다. 가중치가 업데이트되면서 가중합이 음수가 되는 순간 ReLU는 0만 출력하여 그 이후의 노드들이 활성화되지 않게 된다. 이를 dying ReLU라고 하며 이러한 문제를 해결하기 위해 ReLU를 변형시킨 함수들이 등장했는데, 그중 대표적인 몇 가지를 소개하겠다. 리키렐루 (Leaky ReLU) 리키렐루는 아래와 같은 식을 가지는 ReLU의 변형된 함수이다. Lea.. 더보기 발전된 초기화 함수(Initializer) (Xavier / He 등) 【1】Deep Learning 시작하기_다시 마주친 장벽, Vanishing Gradient Problem 발전된 초기화 함수(Initializer) (Xavier / He 등) >> Xavier 초기화의 정규분포 식 [도전! 연습문제] 아래 그림과 같은 3층 신경망이 있다. Xavier 를 이용해 은닉층 1, 2의 가중치 값을 초기화 를 계산 해 보아라. He 홍콩 중문대 박사과정의 Kaiming he가 이 초기화 방법을 사용해 ImageNet에서 에러율 3%를 달성하게 되며 주목을 받게 된 방식이다. 기존 Xavier 초기화에서 앞 층의 노드 수를 2로 나눈 후 루트를 씌운 방식으로 Xavier에 비해 분모가 작기 때문에 활성화 함수 값들을 더 넓게 분포 시킨다. Xavier와 유사하지만 He는 입력.. 더보기 해결책 2 : 문제는 활성화 함수 - ReLU / (확률분포) 【1】Deep Learning 시작하기_다시 마주친 장벽, Vanishing Gradient Problem 해결책 2 : 문제는 활성화 함수 - ReLU / (확률분포) “We used the wrong type of non-linearity” 그 다음으로는 힌튼이 네번째로 제시한 이유인 활성화 함수에 대해 이야기하겠다. 오차 역전파는 출력층에서 입력층 방향으로 각 층의 가중치를 수정하는 방식이라는 것을 모두 알고 있을 것이다. 가중치를 수정하는 과정에서 활성화 함수의 미분이 진행되는데 문제는 바로 여기서 발생한다. 활성화 함수로 시그모이드 함수를 사용했더니 출력층과 가까운 경우에는 오차역전파가 잘 되는데 반해 출력층과 멀어지는 경우 오차 전파가 잘 안되는 문제가 생긴 것이다. 이러한 문제는 시그모이드 .. 더보기 I am Hinton! 기울기 소실 사건을 해결하다! - 제한 볼츠만 머신(RBM) 【1】Deep Learning 시작하기_다시 마주친 장벽, Vanishing Gradient Problem I am Hinton! 기울기 소실 사건을 해결하다! - 제한 볼츠만 머신(RBM) 훗날 토론토 대학교의 제프리힌튼(Geoffrey Hinton) 교수는 딥러닝이 한계를 가지게 된 이유 4가지를 정리했다. 우리는 힌튼 교수의 제안을 바탕으로 기울기 소실 문제를 해결할 아이디어를 접근해볼 것이다. Geoffrey Hinton’s summary of findings up to today (1) Our labeled datasets were thousands of times too small. (2) Our computers were millions of times too slow. (3) We init.. 더보기 핑거 스냅? 기울기가 사라진다! 【1】Deep Learning 시작하기_다시 마주친 장벽, Vanishing Gradient Problem 다시 마주친 장벽, Vanishing Gradient Problem 오차역전파의 등장으로 신경망에서 최적의 가중치를 찾아낼 수 있으며 이를 통해 오차가 적은, 정답과 가까운 출력을 갖는 신경망을 만들 수 있음을 보이게 되었다. 사람들은 신경망이 XOR 문제 뿐만 아니라 더 복잡한 문제도 해결할 수 있다는 생각에 다시 관심을 갖기 시작했다. 연구진들은 복잡한 문제를 해결할 수 있는 신경망을 만들기 위해 은닉층을 깊게 쌓아보았으나 결과가 기대만큼 좋지 않게 되며 신경망은 두번째 침체기에 들어서게 된다. 도대체 어떠한 문제가 생긴 것인지 알아보자. 핑거 스냅? 기울기가 사라진다! 분명 우리는 앞의 글에서.. 더보기 오차 역전파를 직접 계산해보자 - (2) 오차 구하기 【1】Deep Learning 시작하기_오차 역전파가 중요하다! 오차 역전파를 직접 계산해보자 - (2) 오차 구하기 작성자 홍다혜 ghdek11@gmail.com / 이원재 wonway333@gmail.com 더보기 오차 역전파를 직접 계산해보자! - (1) 출력층의 가중치 업데이트 【1】Deep Learning 시작하기_오차 역전파가 중요하다! 오차 역전파를 직접 계산해보자! - 출력층의 가중치 업데이트 출력층의 가중치 업데이트 작성자 홍다혜 ghdek11@gmail.com / 이원재 wonway333@gmail.com 더보기 오차 역전파란 무엇인가? 【1】Deep Learning 시작하기_오차 역전파가 중요하다! 오차 역전파란 무엇인가? 작성자 홍다혜 ghdek11@gmail.com / 이원재 wonway333@gmail.com 더보기 경사하강법(Gradient Descent Optimizer) 【1】Deep Learning 시작하기_딥러닝이 알고 싶다! 경사하강법 작성자 홍다혜 ghdek11@gmail.com / 이원재 wonway333@gmail.com 더보기 이전 1 ··· 15 16 17 18 19 20 21 ··· 39 다음