DL

RNN(Recurrent Neural Network

math_tbro 2022. 1. 10. 01:21

RNN : 음성 인식과 자연어 처리같은 순차적 데이터에 사용되는 LSTM or GRU의 근간이 되는 모델

입력층 → 출력층 으로 보내는 동시에 다음 시점의 은닉층 으로도 입력이 흐르는 형태

이 사진에서 확인하듯이 xtx_t 입력데이터와 ht1h_{t-1}을 입력받아서 다음 가중치를 이용해 최종값을 출력한다.

  • 은닉층(RNN Cell) : ht=tanh(Wxxt+Whht1)h_t = tanh(W_xx_t + W_hh_{t-1})
  • 출력층 : yt=fy(Whht)y_t = f_y(W_hh_t)

RNN은 다양한 입력, 출력 시퀀스에 따라 유연하게 네트워크 구조를 설계할 수 있으며, 그만큼 여러문제에 적용가능.

  • One to Many : Image Captioning(이미지를 설명하는 문장을 생성하는 문제)
  • Many to One : sentiment Classification (텍스트에서 정보를 추출하여 감정, 태도 파악)
  • Many to Many : 동영상의 각 이미지 프레임별 분류
  • Delayed Many to Many : Machine Translation(입력된 언어를 다른언어로 변환하는 기계번역)

RNN에 대해 간단하게만 공부하고 넘어가겠다. 실제로 이것 관련한 프로젝트를 할 일이 있다면 추가로 정리하겠다.

'DL' 카테고리의 다른 글

GAN(Generative Adversarial Networks)  (0) 2022.01.10
LSTM(Long Short-Term Memory)  (0) 2022.01.10
딥러닝 핵심 알고리즘 (batch,gra_desc,avti_func)  (0) 2022.01.09
딥러닝)Optimizer 알고리즘  (0) 2022.01.09
2.1 딥러닝  (0) 2022.01.03